Search (1159 results, page 26 of 58)

  • × language_ss:"e"
  1. Kaiser, S.: Retrokonversion des Quartkatalogs abgeschlossen (2006) 0.01
    0.008104086 = product of:
      0.032416344 = sum of:
        0.032416344 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.032416344 = score(doc=37,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.27396923 = fieldWeight in 37, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=37)
      0.25 = coord(1/4)
    
    Content
    "Angesichts des Alters (18401952), der Menge (2,3 Millionen Katalogblätter im Quartformat, daher der Name Quartkatalog) und der Schwierigkeit der Vorlagen (über neunzig Prozent handschriftlich) bot es sich für die BSB an, längere Zeit zu prüfen, welches Retrokonversionsverfahren für das geplante Vorhaben am besten geeignet ist unter besonderer Berücksichtigung von Projektdauer, Kosten und unverzichtbarer hoher Qualität der bei der Retrokonversion erstellten Titeldaten. Sorgfältige Vorarbeiten hatten ein Verhältnis von 65 Prozent Zutragungen zu vorhandenen BVB Titeldatensätzen und 35 Prozent Neuaufnahmen prognostiziert. Als entscheidend für den Konversionserfolg wurde daher eine sehr hohe Genauigkeit bei der Entscheidung Neuaufnahme/ Zutragung angesehen, eine hohe Nachvollziehbarkeit der Rechercheentscheidungen sowie die Vermeidung von Dubletten in der Verbunddatenbank. Vor diesem Hintergrund fiel die Entscheidung zu einem Retrokonversionsverfahren unter Ausspeicherung der vorhandenen BVB-Daten, darunter die von der Deutschen Bücherei Leipzig und der Staatsbibliothek Preußischer Kulturbesitz übernommenen Altdaten, mit besonderem Fokus auf die Qualitätssicherung durch den auszuwählenden Dienstleister. In einer europaweiten Ausschreibung wurde im Oktober 2002 der Anbieter Satz-Rechen-Zentrum (SRZ Berlin) ausgewählt, der in den Jahren 1996-1997 bereits die Retrokonversion des IFK der BSB (2,2 Millionen Karten im internationalen Format) erfolgreich bewältigt hatte. Von Dezember 2002 bis Juli 2003 wurden die Katalogschränke sukzessive nach Berlin transportiert, um an zwei für diesen Zweck speziell gebauten Durchzugsscannern 2,3 Millionen Quartblätter mit Vorder- und Rückseite in 256 Graustufen zu digitalisieren. Die insgesamt 4,6 Millionen Bilder (images) umfassen ein Datenvolumen von 221 GByte."
  2. Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007) 0.01
    0.008104086 = product of:
      0.032416344 = sum of:
        0.032416344 = weight(_text_:und in 1797) [ClassicSimilarity], result of:
          0.032416344 = score(doc=1797,freq=40.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.27396923 = fieldWeight in 1797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1797)
      0.25 = coord(1/4)
    
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
    Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
  3. Oberhauser, O.: Multimedia information storage and retrieval using optical disc technology : potential for library and information services (1990) 0.01
    0.008104086 = product of:
      0.032416344 = sum of:
        0.032416344 = weight(_text_:und in 2543) [ClassicSimilarity], result of:
          0.032416344 = score(doc=2543,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.27396923 = fieldWeight in 2543, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2543)
      0.25 = coord(1/4)
    
    Classification
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Imprint
    Wien : Österreichisches Institut für Bibliotheksforschung, Dokumentations- und Informationswesen
    RSWK
    Bildplatte / Information und Dokumentation (BVB)
    RVK
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Subject
    Bildplatte / Information und Dokumentation (BVB)
  4. Heckner, M.: Tagging, rating, posting : studying forms of user contribution for web-based information management and information retrieval (2009) 0.01
    0.008104086 = product of:
      0.032416344 = sum of:
        0.032416344 = weight(_text_:und in 3931) [ClassicSimilarity], result of:
          0.032416344 = score(doc=3931,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.27396923 = fieldWeight in 3931, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3931)
      0.25 = coord(1/4)
    
    Abstract
    Die Entstehung von Social Software ermöglicht es Nutzern, in großem Umfang im Netz zu publizieren. Bisher liegen aber nur wenige empirische Befunde zu funktionalen Eigenschaften sowie Qualitätsaspekten von Nutzerbeiträgen im Kontext von Informationsmanagement und Information Retrieval vor. Diese Arbeit diskutiert grundlegende Partizipationsformen, präsentiert empirische Studien über Social Tagging, Blogbeiträge sowie Relevanzbeurteilungen und entwickelt Design und Implementierung einer "sozialen" Informationsarchitektur für ein partizipatives Onlinehilfesystem.
    Classification
    AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
    RVK
    AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
  5. Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009) 0.01
    0.008022635 = product of:
      0.03209054 = sum of:
        0.03209054 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
          0.03209054 = score(doc=2815,freq=20.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2712157 = fieldWeight in 2815, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2815)
      0.25 = coord(1/4)
    
    Content
    "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
    Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
    Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
  6. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.01
    0.007898886 = product of:
      0.031595543 = sum of:
        0.031595543 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
          0.031595543 = score(doc=2418,freq=38.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.26703218 = fieldWeight in 2418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2418)
      0.25 = coord(1/4)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  7. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.01
    0.007898886 = product of:
      0.031595543 = sum of:
        0.031595543 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
          0.031595543 = score(doc=1727,freq=38.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.26703218 = fieldWeight in 1727, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."
  8. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.01
    0.007898886 = product of:
      0.031595543 = sum of:
        0.031595543 = weight(_text_:und in 335) [ClassicSimilarity], result of:
          0.031595543 = score(doc=335,freq=38.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.26703218 = fieldWeight in 335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=335)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
    Die Neuauflage hat McCorduck mit einem Nachwort versehen. Auf diesen 100 Seiten durcheilt sie das fehlende Vierteljahrhundert: Die »Eiszeit« in den 1980ern, als sich niemand mehr von denkenden Maschinen zu reden traute - zu grandios waren selbst »einfache« Projekte, wie die maschinelle Übersetzung, mitsamt den investierten Forschungsmillionen den Bach hinuntergegangen. KI galt als Hort der Hybris und der haltlosen Versprechungen, die Idee, ein künstliches Gehirn zu erstellen, als absurd. Die Forschungsförderung, auch des Militärs, versiegte. Danach kam wieder Leben in die Eiswüste: »Deep Blue« schlug den Schachmeister Garri Kasparow; das künstliche Denken war plötzlich wieder salonfähig. Und auch die Ängste waren wieder da: Bill Joy, Erster Wissenschaftler des Betriebssysteme-Bauers Sun Microsystems, belebte passgenau vor der Jahrtausendwende auch deutsche Feuilletons, indem er vor einer Machtübernahme durch die Maschinen warnte. All das gibt einen guten Überblick. Die Inspiration der Erstauflage hat das Nachwort aber nicht: McCorduck reiht Ereignisse aneinander, spürt jedoch den tiefer liegenden Strömungen wenig nach. Überhaupt wirkt es verlegerisch ungeschickt, die letzten 25 Jahre als Appendix an das große Werk zu fügen. Denn in diesen Jahren hat eine Zäsur stattgefunden: Das »heroische« Zeitalter der KI - wie McCorduck es charakterisiert - ist in den meisten Labors längst abgeblasen worden. Heute spricht kaum noch jemand davon, eine intelligente Maschine schaffen zu wollen; selbst das Wort »Intelligenz« meidet man eher, um weder falsche Hoffnungen noch unnötige Ängste zu schüren. Bis auf wenige Ausnahmen wie den Roboterbauer Hans Moravec, der vollintegrierte und gesellschaftsfähige Kunstmenschen unverdrossen für das Jahr 2050 prophezeit, ist die KI pragmatisch geworden. Sie hat sich, wie McCorduck durchaus bemerkt, in viele Teildisziplinen aufgespalten und konzentriert sich aufs Machbare: Der Fußballroboter soll den Ball treffen, der Kanalkrabbler das Leck im Rohr finden, der Suchalgorithmus das richtige Ergebnis liefern, die Wissensbasis funktionieren. »Heroische« Großprojekte werden da eher mit schiefem Grinsen angesehen, wie die Wissensbasis »CyC« des Stanford-Professors Douglas Lenat, in der das gesamte Alltagswissen eines Menschen in Form von Regeln wie »Schneeweiß« und »Zahnarzt gelegentlich Schmerzen« codiert werden soll, um einer Maschine dadurch menschenähnliches Wissen einzuhauchen. Pamela McCorduck aber referiert über diese seit 1994 andauernde Hamsterarbeit stoisch ohne einen Anflug von Kritik. Auch die Hinwendung zum Körper schwingt bei ihr implizit mit, wenn sie die neuen Roboter bespricht, wird aber nicht als der Trend, der er ist, gewürdigt: Embodied AI, »verkörperte KI«, ermöglicht durch die boomende Sensortechnik, lagert viele Funktionen der zentralen Steuerung in die Peripherie aus, lässt also, anthropomorph gesprochen, den Körper zu Wort kommen und entlastet den Kopf. Ein schönes Pferd, auf das McCorduck hätte aufspringen können: Schließlich ist es genau ihr Metier, den Computer nicht bloß als Werkzeug, sondern als Erkenntnisobjekt zu nutzen, wie der Mensch sich selbst sieht - denn auch in die Philosophie haben ja Diskussionen zur Körperlichkeit Einzug gefunden. Weil sich so vieles geändert hat, wäre es vielleicht klug gewesen, ein neues Buch zu schreiben, statt einfach die neuen Entwicklungen an die alten anzuhängen. Und es ist wirklich schade, dass die Autorin, wie sie im Vorwort schreibt, nicht die Zeit fand, über die Grenzen der USA hinauszugehen. Auch in Lund, Darmstadt und Tokio werden interessante Dinge gebaut. Jedenfalls ist es inzwischen klar: »Machines who think« - dieser Satz ist an den Schläfen so grau wie viele der Pioniere der KI aus dem vergangenen heroischen Zeitalter. Heute ergänzt man den Ausspruch mit einem »nun ja, irgendwie - kind of«, zieht den Laborkittel an und schraubt weiter. Das Zeitalter der großen Versprechungen ist vorbei. Und das ist gut so."
  9. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.01
    0.0078068892 = product of:
      0.031227557 = sum of:
        0.031227557 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
          0.031227557 = score(doc=2832,freq=58.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.26392213 = fieldWeight in 2832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2832)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  10. Hofstadter, D.R.: I am a strange loop (2007) 0.01
    0.0078068892 = product of:
      0.031227557 = sum of:
        0.031227557 = weight(_text_:und in 1666) [ClassicSimilarity], result of:
          0.031227557 = score(doc=1666,freq=58.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.26392213 = fieldWeight in 1666, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1666)
      0.25 = coord(1/4)
    
    BK
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Classification
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  11. Computer - Neue Medien - Elektronisches Publizieren (1993) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 5905) [ClassicSimilarity], result of:
          0.030684428 = score(doc=5905,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 5905, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5905)
      0.25 = coord(1/4)
    
    Content
    Enthält u.a. die folgenden Beiträge: RIESENHUBER, H.: Am Ende steht das Wort: Kultur und Technik als Verbündete - ein Plädoyer; STEIDEL, M.: Von Bindestrich-Informatik bis Chaostheorie (Hüthig); HEMPELMANN, G.: Laudatio für das Arbeitsbuch (Markt & Technik); GÖTZ, B.: Voll daneben: sind Computerbücher noch immer anwendergerecht?; SCHOLZ, H.-W.: Das Buch lernt sprechen, singen und tanzen (Langenscheidt); STUMPF, P.: Der Laptop als Gourmet-Führer (Rossipaul); BURNELEIT, H.-D.: Wer zu früh kommt, den bestraft der Markt (C.H. Beck); KEMP, A. de: Erzfeind oder Kumpel: das ist nicht die Frage (Springer); SCHOLZ, I.: Alles digital (Elektronisches Publizieren); MERTENS, E.: Wichtig ist die Einführung beim Kunden (Olms); SCHRÖDER, M.: Database publishing; GRUNDMANN, U.: Champagner von der CD (EMS/Econ); PRIBILLA, P.: Any to any (Siemens); HEKER, H.: Rechtsfragen der elektronischen Textkommunikation; PLENZ, R.: Verlegen mit Äpfeln und Quark (DTP); PLENZ, R.: Typographische Qualifikation entscheidet (DTP); LIEDER, R.: Cover mit der Maus (Sybex); STYRNOL, H.: Kompetenz schlägt heiße Nadel; KAETZ, R.: Akzente mit Butterfly (Laden-Präsentation); RINKA, M.: Flankierende Maßnahmen Zeitschriften; ZEBOLD, P.: Tools für den Verkauf (Zeitschriften); STEINBECK, P.: Lose-Disketten-Werk; STEINHAUS, I.: Man trägt Diskette; BORISCH, M.: Kompetenter Partner auch für fun und action; KESSLER, C.: Schneller schlau (Wissenssoftware, MSPI); KRAPP, S.: Computer am Dienstag (CAD), Chaos am Mittwoch (CAM), oder: wieviel EDV braucht der Azubi?; STEINBRINK, B.: Multimedia: Standards für die Verlagswelt (Markt & Technik); MONDEL, N.: Der Krieg der Systeme findet nicht statt (Tewi); FERCHL, I.: Online in den Markt (Springer); FERCHL, I.: Nicht hurtig, HÜthig; BLAHACEK, R.: Alle Stückerln (Erb-Verl.); MENZEL, M.: Porsche oder Goggo (Rossipaul); MENZEL, M.: Sharebären und MS-Dosen (Systhema); MENZEL, M.: Populär, aber nicht platt (Tewi); MENZEL, M.: Von Funk zu Fuzzy (Franzis); GRUNDMANN, U.: Aktive Lebenshilfe: und das möglichst preisgünstig (Data-Becker); GRUNDMANN, U.: Die roten Dreiecke bleiben sich treu (Addison-Wesley); GRUNDMANN, U.: Große Bücher für wenig Geld (BHV); GRUNDMANN, U.: ... nämlich ein Dos-Buch genauso zu vermarkten wie 'Scarlet' (Sybex); MENZEL, M.: Langsam einsickern (dtv/Beck); SCHMITZ, A.: Le style c'est l'homme (Rowohlt); SCHINZEL, W.H.: CD-ROM: eine Erfolgsstory; QUEISSER, M.: Kataloge auf der Silberscheibe; SOMMERFELD, B.: Ran an Eunet; LESSMAN, F. u. H. KELLER: Online mit KNO; ZAAG, J.: Vorreiter (KNO); SCHÖDER, M.: Arno Schmidts anderer Zettelkasten (Relationale Datenbanken); WIESNER, M.: One world of informations: OSI und EDI; WEIGEL, F.: Intermezzo mit X12, Libe für EDI (Harrassowitz);
  12. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.030684428 = score(doc=123,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=123)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  13. Daconta, M.C.; Oberst, L.J.; Smith, K.T.: ¬The Semantic Web : A guide to the future of XML, Web services and knowledge management (2003) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 1320) [ClassicSimilarity], result of:
          0.030684428 = score(doc=1320,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 1320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1320)
      0.25 = coord(1/4)
    
    BK
    85.20 Betriebliche Information und Kommunikation
    Classification
    85.20 Betriebliche Information und Kommunikation
    Footnote
    Rez. Amazon: "Die Autoren bezeichnen das Buch im Vorwort als strategischen Führer für Führungskräfte und Entwickler die sich einen Überblick über das Semantic Web und die dahinter stehende Vision machen wollen. Genau diesem Anspruch wird das Buch auch absolut gerecht. Die ersten beiden Kapitel beschreiben die Vision sowie die Möglichkeiten, die sich durch den Einsatz der in den nachfolgenden Kapiteln beschriebenen Techniken bieten. Die Autoren schaffen es anhand vieler praktischer Szenarien (die zwar teilweise meiner Einschätzung nach schon noch in einiger Zukunft liegen, aber die große Vision des ganzen schön vergegenwärtigen) sehr schnell den Leser für die Technik zu begeistern und mehr darüber wissen zu wollen. Die nachfolgenden Kapitel beschreiben die Techniken auf den verschiedenen semantischen Ebenen von XML als Basis für alles weitere, über Web Services, RDF, Taxonomies und Ontologies. Den Autoren gelingt es die beschriebenen Techniken so kurz und prägnant zu erklären, dass sich der Leser danach zumindest ein Bild über die Techniken an sich, sowie über deren komplexes Zusammenspiel machen kann. Auch für Entwickler würde ich das Buch empfehlen, da es einen sehr guten Einstieg in viele doch sehr neue Techniken bietet mit vielen Verweisen auf weitere Literatur. Alles in allem ein sehr gelungenes Buch, das es trotz relativ geringem Umfangs schafft, einen guten Überblick über dieses komplexe Thema zu vermitteln."
  14. De Bellis, N.: Bibliometrics and citation analysis : from the Science citation index to cybermetrics (2008) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.030684428 = score(doc=572,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 572, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=572)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: JASIS 61(2010) no.1, S.205-207 (Jeppe Nicolaisen) Weitere Rez. in: Mitt VÖB 63(2010) H.1/2, S.134-135 (J. Gorraiz u. M. Wieland): "Das Buch entwickelte sich aus einem mehrjährigen Forschungsprojekt mit dem Ziel, den schwer verständlichen quantitativen Kern der Bibliometrie in einem für primär italienische Bibliothekare leichteren historischen und philosophischen Kontext zu vermitteln, wie der Autor im Vorwort erklärt. Dank einer Empfehlung von Eugene Garfield steht dieses Werk nun auch in englischer Übersetzung einer internationalen Leserschaft zur Verfügung. Die über 400 Seiten lange Monografie von de Bellis gibt in acht Kapiteln einen detaillierten und sehr präzisen Überblick über die Bibliometrie und die Zitationsanalyse, ihre Natur und Entwicklung, ihre Kontroverse und Prognose. . . . Das Buch von de Bellis ist sehr empfehlenswert für alle die beabsichtigen, sich mit dieser neuen Wissenschaft zu beschäftigen. Es endet mit folgendem Statement: "Scientometricians have to learn to live in a multidimensional world". Und genau hier liegt die Herausforderung und Schönheit dieses Metiers."
  15. Peters, I.: Folksonomies : indexing and retrieval in Web 2.0 (2009) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.030684428 = score(doc=203,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 203, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=203)
      0.25 = coord(1/4)
    
    Abstract
    Kollaborative Informationsdienste im Web 2.0 werden von den Internetnutzern nicht nur dazu genutzt, digitale Informationsressourcen zu produzieren, sondern auch, um sie inhaltlich mit eigenen Schlagworten, sog. Tags, zu erschließen. Dabei müssen die Nutzer nicht wie bei Bibliothekskatalogen auf Regeln achten. Die Menge an nutzergenerierten Tags innerhalb eines Kollaborativen Informationsdienstes wird als Folksonomy bezeichnet. Die Folksonomies dienen den Nutzern zum Wiederauffinden eigener Ressourcen und für die Recherche nach fremden Ressourcen. Das Buch beschäftigt sich mit Kollaborativen Informationsdiensten, Folksonomies als Methode der Wissensrepräsentation und als Werkzeug des Information Retrievals.
    Footnote
    Zugl.: Düsseldorf, Univ., Diss., 2009 u.d.T.: Peters, Isabella: Folksonomies in Wissensrepräsentation und Information Retrieval Rez. in: IWP - Information Wissenschaft & Praxis, 61(2010) Heft 8, S.469-470 (U. Spree): "... Nachdem sich die Rezensentin durch 418 Seiten Text hindurch gelesen hat, bleibt sie unentschieden, wie der auffällige Einsatz langer Zitate (im Durchschnitt drei Zitate, die länger als vier kleingedruckte Zeilen sind, pro Seite) zu bewerten ist, zumal die Zitate nicht selten rein illustrativen Charakter haben bzw. Isabella Peters noch einmal zitiert, was sie bereits in eigenen Worten ausgedrückt hat. Redundanz und Verlängerung der Lesezeit halten sich hier die Waage mit der Möglichkeit, dass sich die Leserin einen unmittelbaren Eindruck von Sprache und Duktus der zitierten Literatur verschaffen kann. Eindeutig unschön ist das Beenden eines Gedankens oder einer Argumentation durch ein Zitat (z. B. S. 170). Im deutschen Original entstehen auf diese Weise die für deutsche wissenschaftliche Qualifikationsarbeiten typischen denglischen Texte. Für alle, die sich für Wissensrepräsentation, Information Retrieval und kollaborative Informationsdienste interessieren, ist "Folksonomies : Indexing and Retrieval in Web 2.0" trotz der angeführten kleinen Mängel zur Lektüre und Anschaffung - wegen seines beinahe enzyklopädischen Charakters auch als Nachschlage- oder Referenzwerk geeignet - unbedingt zu empfehlen. Abschließend möchte ich mich in einem Punkt der Produktinfo von de Gruyter uneingeschränkt anschließen: ein "Grundlagenwerk für Folksonomies".
  16. Svenonius, E.: Facets as semantic categories (1979) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 1426) [ClassicSimilarity], result of:
          0.030131513 = score(doc=1426,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 1426, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1426)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  17. Bivins, K.T.: Frame searching and indexing languages (1979) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 1429) [ClassicSimilarity], result of:
          0.030131513 = score(doc=1429,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 1429, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1429)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  18. Vasarhelyi, P.: Implications of the INTERCONCEPT project for classification and indexing (1979) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.030131513 = score(doc=82,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 82, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=82)
      0.25 = coord(1/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  19. Harms, I.; Schweibenz, W.: Usability engineering methods for the Web (2000) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 6482) [ClassicSimilarity], result of:
          0.030131513 = score(doc=6482,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 6482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6482)
      0.25 = coord(1/4)
    
    Content
    Der Beitrag präsentiert eine Studie über Evaluationsmethoden zur WebUsability. Er beschreibt die "Heuristics for Web Communications" und berichtet von den praktischen Erfahrungen mit den Heuristiken, die mit dem "Keevil Index" verglichen und mit Benutzertests mit lautem Denken kombiniert werden. Das Ergebnis zeigt, dass eine Evaluation mit den beschriebenen Heuristiken gegenüber dem "Keevil Index" mehr Zeit und Aufwand erfordert, aber konsistentere Ergebnisse bringt. Die Heuristiken haben sich sowohl in der experten-zentrierten Evaluation als auch in Kombination mit dem Benutzertest insgesamt als geeignete Evaluationsmethode erwiesen
  20. Bargheer, M.: Quality control and evaluation of scientific Web resources (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2767) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2767,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2767, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2767)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftliche Informationen im Internet gewinnen zunehmend an Bedeutung. Um sie als zuverlässige Ressourcen für die wissenschaftliche Arbeit zu erschließen, müssen sie auf ihre Qualität geprüft werden - eine Aufgabe, die vermehrt von wissenschaftlichen Bibliotheken über ihre Internetdienste wie Subject Gateways, Digitale oder Virtuelle Bibliotheken wahrgenommen wird. Der vorliegende Artikel bietet eine medientheoretische Diskussion zum wissenschaftlichen Informationsraum im Internet und den medienbedingten Auswirkungen auf die Inhalte sowie einen Überblick zur Entwicklung von Evaluationsansätzen für Internetressourcen. Die theoretischen Abhandlungen werden durch einen umfangreichen Serviceteil ergänzt, der detailliert Qualitätskriterien und den Evaluierungsprozess in einer Weise aufzeigt, welche die Anpassung an (fach-)spezifische Anforderungen ermöglicht.
    Source
    Bibliothek: Forschung und Praxis. 27(2003) H.3, S.153-169

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 737
  • m 299
  • el 96
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications