Search (4748 results, page 189 of 238)

  • × year_i:[2000 TO 2010}
  1. Naumann, M. (Bearb.): Diderots Enzyklopädie : eine Auswahl (2001) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 1455) [ClassicSimilarity], result of:
          0.030999837 = score(doc=1455,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 1455, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1455)
      0.25 = coord(1/4)
    
    Abstract
    Dieses "schmale Taschenbuch" ist eine zum 250. Geburtstag der Enzyklopädie erschienene Neuausgabe von Diderots Enzyklopädie. Es stellt eine gekürzte Fassung von 1972 dar und genügt den Ansprüchen von Rezensent Lothar Müller nicht. Müller hat neben den Auslassungen ganzer Artikel noch "einschneidende Binnenkürzungen" gefunden, schimpft der Rezensent und meint, dass das Buch in seinem bescheidenen Umfang dem "Jubiläumsjahr 2001" nicht gerecht wird.
    Classification
    CF 3103 Philosophie / Geschichte der Philosophie / Geschichte der Philosophie des Abendlandes / Philosophie des 17. und 18. Jahrhunderts / Autoren / Autoren D / Diderot, Denis / Anthologien, Auszüge
    Issue
    Ausw. und Einf. von Manfred Naumann. Übers. aus dem Franz. von Theodor Lücke.
    RVK
    CF 3103 Philosophie / Geschichte der Philosophie / Geschichte der Philosophie des Abendlandes / Philosophie des 17. und 18. Jahrhunderts / Autoren / Autoren D / Diderot, Denis / Anthologien, Auszüge
  2. Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 1797) [ClassicSimilarity], result of:
          0.030999837 = score(doc=1797,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 1797, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1797)
      0.25 = coord(1/4)
    
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
    Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
  3. Stempfhuber, M.: Verbesserung der Zugänglichkeit heterogen erschlossener Informationen (2008) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 2681) [ClassicSimilarity], result of:
          0.030999837 = score(doc=2681,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 2681, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2681)
      0.25 = coord(1/4)
    
    Abstract
    Aufgrund der durch die Nutzer verstärkt geforderten Zusammenführung bislang verteilt vorliegender Informationssammlungen an einer Stelle tritt in der Praxis ein Phänomen zu Tage, das mit Blick auf die einzelne Informationssammlung in vielen Fällen bereits als gelöst betrachtet wurde: Heterogenität. Es zeigt sich, dass Standardisierungsansätze oft zu kurz greifen, da sie für die praktische Anwendung keine Modelle bieten, die trotz Standardisierungsbemühungen verbleibenden Unterschiede effizient und wirksam zu behandeln. Der Artikel stellt anhand zweier Beispiele aus dem Bereich der Fachinformation Lösungswege vor, wie in der Praxis Heterogenität zwischen Informationssammlungen auf semantischer Ebene behandelt werden kann. Sie tritt immer dann auf, wenn mehrere Quellen gleichzeitig durchsucht werden sollen, diese aber mit unterschiedlichen Indexierungsvokabularen erschlossen wurden. Am Beispiel statistischer Daten für die Marktforschung und wissenschaftlicher Literaturinformationssysteme werden Lösungen vorgestellt, mit dem Erschließungsvokabulare so aufeinander abgebildet werden können, dass sie Nutzer sowohl bei der Anfrageformulierung unterstützen können als auch bei der Suche eine für den Nutzer transparente und automatische Anfragetransformation ermöglichen. Ziel dieser Verfahren ist es, die kognitive Last beim Nutzer währender der Anfrageformulierung zu verringern und den Recall von Suchen in heterogen erschlossenen Informationssammlungen zu erhöhen.
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  4. Janich, P.; Singer, W.: Kommen Sie doch in mein Labor! (2008) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 2993) [ClassicSimilarity], result of:
          0.030999837 = score(doc=2993,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 2993, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2993)
      0.25 = coord(1/4)
    
    Abstract
    Der Marburger Philosoph Peter Janich besprach am 16. Juni in der F.A.Z. das neueste Buch des Frankfurter Hirnforschers Wolf Singer. Janich hielt Singer vor, er missverstehe nicht so sehr den Menschen als vielmehr die Naturwissenschaften vom Menschen, wenn er sie als Ausfluss von Hirnfunktionen beschreibe. Wissenschaftliche Sätze könnten wahr und falsch sein, Naturvorgänge nicht. Ein Experiment setze daher ein normatives Sprachspiel voraus, das sich auf Naturtatsachen nicht zurückführen lasse. "Nicht Hirne erforschen Hirne durch bloße neuronale Aktivität, sondern da muss in die Welt der Dinge mit Händen eingegriffen werden, und zwar nach Regeln." Janichs Besprechung hat Singer zu einem Brief provoziert, den wir mit Janichs Antwort veröffentlichen.
    Content
    Singer: Die Beweislast liegt bei Ihnen! Der Hirnforscher Wolf Singer ist des Argumentierens müde. Wenn der Philosoph Peter Janich immer noch Zweifel habe, dass die Hirnforschung die menschliche Geistestätigkeit restlos erklären könne, dann solle er doch in sein Labor kommen. Er würde ihn dann im Selbstexperiment schon davon überzeugen. Janich: Ich lasse mich nicht in den Tomographen schieben! Der Philosoph Peter Janich widerspricht Singers These, dass der menschliche Geist sich durch die Gehirnforschung restlos erfassen lasse. Und er widersetzt sich Singers Aufforderung, sich im Selbstexperiment davon zu überzeugen. Ein solches Experiment könne nichts beweisen außer Singers moralische Bedenkenlosigkeit.
    Footnote
    Bezug auf: Singer, W, M Ricard: Hirnforschung und Meditation: ein Dialog. Aus dem Engl. von Susanne Warmuth und Wolf Singer. Frankfurt: Suhrkamp. 2008.
  5. Siegle, J.: @lles hat ein Ende : Im Sog der kriselnden Web-Wirtschaft kämpfen immer mehr Internet-Zeitschriften um ihr Überleben (2001) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3058,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3058, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3058)
      0.25 = coord(1/4)
    
    Content
    "Die New Economy liegt am Boden. Unzählige Dotcom-Firmen sind in die Pleite geschlittert. Hightech-Aktien tendieren gegen Null. Tausende hoch dotierte Angestellte haben ihren Job verloren. Unter dem ungesunden Klima hat nun vor allen Dingen auch die Internet-Presse zu leiden. Seit Monaten müssen New-Economy-Magazine drastische Anzeigenrückgänge hinnehmen. Die Titel Business 2.0 und E-Business wurden gar komplett eingestellt. Das jüngste Opfer der anhaltenden Online-Krise ist nun Net-Business. Wie vergangenen Freitag bekannt wurde, stellt die Verlagsgruppe Milchstraße die webaffine Wirtschaftszeitung ein (die FR berichtete). Verleger Dirk Manthey hat die Titelrechte verkauft. Am Freitag wird die letzte von der Hamburger Redaktion produzierte Ausgabe erscheinen. Eine bittere Pille für das rund 30-köpfige Team: Bis auf wenige Ausnahmen werden wohl alle Mitarbeiter entlassen. Vor wenigen Wochen noch hatte Manthey Probleme bei seinem Vorzeigeobjekt vehement bestritten. Anfang Juli war lediglich gemeldet worden, Peter Turi, Ex-Chefredakteur und Ex-Mitherausgeber des Heidelberger Medienfachmagazins Kress Report, würde im Oktober Net-Business-Chefredakteur Klaus Madzia ablösen. Am derzeitigen Konzept solle aber dennoch weiter festgehalten werden. NetBusiness werde es trotz der Krise weiter geben, hatte Madzia - ironischerweise im Online-Dienst des Kress Report - versichert. - Alltag voller Pannen. - Und nun ist doch alles völlig anders gekommen: Faktisch übernimmt Turi nicht nur die Leitung der Redaktion, sondern gleich die komplette Zeitung. Ab September soll ein völlig neu konzipiertes Net-Business in Heidelberg erscheinen. Dort sitzt Turis Firma ihaus GmbH, die derzeit mit Koepfe.de einen Internet-Dienst für digitale Visitenkarten betreibt. Im Zuge der Net-Business-Übernahme plant der 40-Jährige nun die Gründung einer eigenen Verlagsgesellschaft. Der Erscheinungsrhythmus der Neuauflage wird mit 14-tägig angegeben.
    Inhaltlich soll Net-Business zu einem Branchendienst umgebaut werden, wobei die Schwerpunkte neben Köpfen, Konzepten und Karriere auch im Bereich Medien und Marketing liegen sollen. Online-Unternehmer Turi mochte hierbei mit einem Team von drei bis vier Redakteuren auskommen". Entgegen anderslautenden Medienberichten wird die Online-Ausgabe von NetBusiness nicht eingestellt und zunächst weiterhin von der Milchstraßen-Tochter Tomorrow Internet AG betreut. Turis Service Koepfe.de soll in den Web-Ableger von Net-Business integriert werden. Schon seit Monaten munkelte die Szene über ein nahes Ende des im Januar 2000 gestarteten Net-Business. Die zunächst im Zwei-Wochenrhythmus vertriebene Zeitung hatte ihren Erscheinungszyklus im Herbst 2000 auf einen wöchentlichen verkürzt. Nachdem jedoch die Anzeigenumsätze drastisch eingebrochen waren, war der Verlag Ende vergangenen Jahres energisch zurückgerudert und hatte einen rigiden Sparkurs verordnet: Die Erscheinungsweise wurde wieder auf 14-tägig zurückgestellt, zahlreichen Redakteuren, die nur wenige Monate zuvor von anderen Medien abgeworben wurden, gekündigt. Trotz gegenteiliger Beteuerungen blieben Anzeigenverkauf und Auflagenentwicklung deutlich hinter den Erwartungen zurück - im ersten Quartal 2001 erreichte Net-Business nicht einmal eine verkaufte Auflage von 24 000 Exemplaren. Ursprünglich war ein Vielfaches dessen angepeilt. Madzia spricht dennoch nicht von einem Misserfolg des Projekts: Ich denke nicht, dass die Redaktion oder ich gescheitert sind", sagt der Net-Business-Chefredakteur und -Herausgeber gegenüber der FR. "Das Ganze ist natürlich schon enttäuschend, aber der Markt ist momentan einfach ziemlich rau", so Madzia. Net-Business ist alles andere als ein Einzelfall. Pleiten, Pech und Pannen gehören im deutschen Online-Blätterwald längst zum Alltag. Im Frühjahr war Business 2.0 aus dem Münchner Future-Verlag gescheitert. Ende April hatte die internationale Mutter Future Networks die unrentable deutsche Niederlassung gleich komplett dichtgemacht. Anfang Juli folgte das Aus für E-Business, den Ableger der Wirtschaftswoche. Die Verlagsgruppe Handelsblatt zog nach nur vier Monaten kurzerhand den Stecker und entließ fast 40 völlig überraschte Redakteure.
    Einige hatten erst zwei Tage zuvor ihren Job bei E-Business angetreten. Am Rande dieser Pleiten gibt es noch eine pikante Personalie: Bereits kurz nach dem Start von E-Business war Chefredakteur Gregor Neumann durch Uli Pecher ersetzt worden. Pecher war zuvor Chefredakteur des eingestellten Magazins Business 2.0 - und nach der weiteren Pleite binnen drei Monaten zum zweiten Mal seinen Posten los. Seit Juli erscheint auch eMarket nur noch zweiwöchentlich. Das Fachblatt für E-Commerce und Online-Marketing war Anfang 2000 nur wenige Wochen nach Net-Business als Wochenmagazin an den Start gegangen. Fast dasselbe gilt für die Web-Illustrierte Tomorrow - ebenfalls ein Objekt der Hamburger Milchstraße. Das Magazin erscheint künftig wieder monatlich statt alle zwei Wochen. Im Zuge der Umstellung soll jedem zweiten Tomorrow-Mitarbeiter gekündigt werden. Doch damit nicht genug: In der ersten Juli-Woche stellte auch die Welt ihre Beilage Web-Welt ein. Redaktionsleiter Dirk Nolde und zwei weitere Redakteure wechselten ins Wirtschaftsressort, um dort zwei New-Economy-Seiten zu produzieren. Im Zuge des Online-Booms sind in den vergangenen drei, vier Jahren allein in Deutschland wohl fast ein Dutzend Publikationen entstanden, die den Aufschwung von Firmen wie AOL, Yahoo, eBay oder Intershop dokumentierten. Nun liefert das Web-Wirtschaft jedoch keine Erfolgsstorys mehr. Die Schlagzeilen der New-Economy-Postillen haben sich längst ebenso verdüstert wie die Stimmung in der Branche. Und wer liest schon gern ständig von Massenentlassungen, Pleiten-Start-ups geschweige denn rasant gegen Null tendierenden Aktienkursen?
    "Den E-Business-Titeln fehlt immer mehr die Daseinsberechtigung, denn deren Entwicklung läuft parallel zur Börsenentwicklung", sagt Wolfgang Koser, Chefredakteur der Internet Professionell. Und inzwischen handelt ja kaum noch jemand, daher gibt es auch kein Info-Bedürfnis und damit keine genau definierte Zielgruppe mehr." - Der Methusalern setzt auf Technik - Titel wie eben Internet Professionell haben es da scheinbar einfacher: Sie bedienen eine ganz klar umrissene Klientel. Doch Koser kennt die Probleme der Magazin-Newcomer aus eigener Erfahrung. Sein Heft ist schließlich aus Pl@net entstanden, der ersten deutschen Internet Zeitschrift. Das Netzkultur-Blatt war auf keine genau bestimmbare Leserschaft gemünzt - und ökonomisch gescheitert. PI@net wurde zur technikorientierten Internet Professionell umgebaut, die auf der nächsten CeBit ihren fünften Geburtstag feiert. Wir sind sozusagen der Methusalem unter den Web-Magazinen«, freut sich Koser Was seitdem passiert ist, gleicht einem Blutbad." Die Internet Professionell wächst dagegen beständig weiter. Auch wenn längst nicht mehr so hohe Zuwachsraten wie noch vor zwei Jahren erzielt werden, zählt das Magazin derzeit 25 000 Abonnenten. Etwa noch mal so viele Hefte werden am Kiosk abgesetzt. Von einem Rückgang des Anzeigenvolumens ist jedoch auch die Internet Professionell nicht verschont geblieben. Ahnliches gilt für die Kollegen der Internet World, die inhaltlich auf einen Mix aus Technik-, Reportage- und News-Elemente setzt. Auflagentechnisch boomt das Magazin, anzeigenmäßig mussten gegenüber dem Vorjahr deutliche Abstriche gemacht werden. Mehr als 80000 Exemplare finden jeden Monat einen Käufer. Ab August beliefert die Redaktion nun auch die Nachrichtenagentur ddp täglich mit zehn News aus der Online-Welt. Und im Gegensatz zu anderen Web-Zeitungen baut die Internet World sogar weiter aus: Herausgeber Pit Klein sucht derzeit mindestens zwei Allround-Redakteure. Vielleicht ja ein guter Tipp für geschasste NetBusiness-Kollegen."
  6. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2008) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3171) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3171,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3171, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3171)
      0.25 = coord(1/4)
    
    Content
    "lm Arbeitsfeld Sacherschließung finden im deutschsprachigen Raum derzeit mehrere Paradigmenwechsel gleichzeitig statt. Zum einen wird das Regelwerk RSWK - zeitlich parallel zum Redaktionsprozess von RDA bzw. RDA deutsch - gänzlich neu überarbeitet um modular daran anzudocken, zum anderen verändert sich der Workflow in allen im Gebrauch stehenden Normdateien (PND, SWD, GKD ...) hin zu einem Online-Redaktionsverfahren und letztlich in Richtung "Gemeinsame Normdatei" (GND) mit dem Fernziel "Virtual International Authority File" (VIAF), all dies einhergehend mit einem Formatumstieg von MAB2 zur MARC21. Außerdem beginnt sich die Breitenwirkung von DDC Deutsch bemerkbarzu machen: DNB hat im ersten Jahr der Klassifizierung von Bibliografie-Reihe "A" 2007 auf Anhieb den weltweit zweiten Rang (nach LoC) erreicht, was die Anzahl vergebener Notationen betrifft! Nun sollte wohl auch bei uns nicht mehr lange gezögert werden, um sie für die Publikumsrecherche bequem nutzbar zu machen. Erste Erfolge bei der Integration des dafür entwickelten Tools MelvilSearch in Aleph-OPACs zeigen sich etwa in der UB der FU Berlin. Die nächste öffentlich zugängliche Sitzung der KofSE wird zwei Gastvorträge zu solch aktuellen Themen bieten und findet im Vorfeld des VÖB-Kongresses in Krems am Dienstag, dem 23. September 2008 statt. Diesmal kommen beide Vortragende aus Berlin. Dörte BRAUNE-EGLOFF (UB der Freien Universität Berlin) bringt seit vielen Jahren in mehreren SE-Gremien sowohl zu klassifikatorischen Fragen als auch zu RSWK/SWD-Themen ihre umsichtige Kompetenz ein. Norbert NAHRMANN (Staatsbibliothek zu Berlin) setzt unsere Serie von Beiträgen über die SE-Praxis und Normdateiarbeit in anderen Verbünden fort und berichtet sowohl über die verbale Sacherschließung im GBV als auch über das dortige SWD-Redaktionsverfahren sowie über die Anwendung der Basisklassifikation (BK)."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.2, S.47
  7. Flachmann, H.: 18 Jahre RSWK und SWD an der Universitäts- und Landesbibliothek Münster : Eine Zwischenbilanz zur verbalen Inhaltserschließung auch für die Nordrhein-Westfälische Bibliographie (2008) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3186) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3186,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3186, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3186)
      0.25 = coord(1/4)
    
    Abstract
    The University and Regional Library (ULB) of Münster in Westphalia indexes its documents since 1990 with Regeln für den Schlagwortkatalog (RSWK) and Schlagwortnormdatei (SWD), the German rules for subject indexing and its authority file. In this area the library profits from the regional and national cooperation, particularly from the German National Library's external services for new German publications. The ULB itself has to index primarily new foreign literature, for instance Dutch books within the scope of the special subject fields programme of the German Research Society (DFG), but also its numerous acquisitions of older books and collections. Also some retrospective conversion has been done in the field of subject cataloguing. In the ULB indexing is the task of the subject librarians. They are supported by a small local editorial staff which especially takes care of the subject catalogue management and cooperates with the North-Rhine Westphalian library network for academic libraries, HBZ in Cologne. Furthermore, in its function as the Regional Library of Westphalia the ULB indexes books and above all a great number of articles listed in the regional bibliography of North Rhine-Westphalia (NWBib). RSWK in Münster im Kontext regionaler und überregionaler Kooperation. - Entwicklung der Schlagwort-Kooperation und Fremddatennutzung. - Aktuelle Probleme und Potenziale der Schlagwort-Kooperation. - Eigenbeschlagwortete Literatur in der ULB Münster. - Schlagwortredaktion in der ULB Münster. - RSWK Erschließung in der Nordrhein-Westfälischen Bibliographie (NWBib). - Münsters Schlagworterschließung in der sachlichen Suche.
  8. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3678) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3678,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3678, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3678)
      0.25 = coord(1/4)
    
    Content
    "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
    Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
    Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
    Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
  9. EndNote X1 (2007) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3928) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3928,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3928, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3928)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitteilungen VOEB 61(2008) H.1, S.110-112 (O. Oberhauser): "In Heft 4/2006 dieser Zeitschrift wurde die zehnte Ausgabe ("X") des bewährten Literaturverwaltungsprogramms EndNote besprochen. 2007 kam die vorliegende, elfte Version auf den Markt, diesmal mit der leicht postmodern anmutenden Zählung "X1", die sich nach der Implementierung eines kürzlich erschienenen Updates als "X1.0.1" liest. Die neue Version ist der vorhergehenden grundsätzlich ähnlich, verfügt aber über einige interessante zusätzliche Features, die im Folgenden kurz behandelt werden sollen. Eine Gruppe dieser Neuerungen betrifft die in der EndNote-Diktion als "library window" bezeichnete Kurztitelliste. In dieser ist es erstens nunmehr möglich, pro EndNote-Bibliothek bis zu 500 individuell definierbare "Gruppen" zu erstellen, denen z.B. einzelne oder mehrere ausgewählte Datensätze, aber auch Ergebnisse einer Suche in der betreffenden Bibliothek oder eine Menge importierter Datensätze zugeordnet werden können. Diese Gruppen bleiben über das Ende einer Sitzung hinweg erhalten, können aber stets leicht wieder verändert (erweitert, reduziert, umbenannt bzw. gelöscht) werden. Ein und derselbe Eintrag kann bei Bedarf auch verschiedenen Gruppen zugeordnet werden. Wenn die Spalte, in der die Gruppen aufgelistet werden (und in der zwischen der Anzeige aller Datensätze und jener einer bestimmten Gruppe hin- und hergewechselt werden kann), gerade nicht benötigt wird, kann sie mit einem in der Werkzeugleiste plazierten Icon weggeklickt werden. Ich selbst habe mit dem Gruppen-Feature bereits gute Erfahrungen gemacht, z.B. zur (temporären) Zusammenfassung von thematisch ähnlichen Einträgen, zur Zusammenführung von Vorträgen einer bestimmten Konferenz sowie zur Markierung von dringend zu beschaffender Originalliteratur. Zur Verbesserung der Kurztitelliste gehört zweitens die Option, in der Autorenspalte alle Verfasser einer Publikation (nicht nur die jeweils ersten) samt ihren Vornamen bzw. Initialen aufscheinen zu lassen. Dies ist nicht nur bei Namensgleichheit von Vorteil, sondern macht auch die Unterschiede in der Sortierung von Ein- und Mehrverfasserpublikationen transparenter und erscheint mir daher als höchst willkommene Änderung. Drittens kann jetzt, mit Hilfe eines per rechter Maustaste aufrufbaren Menüs, direkt aus der Kurztitelliste heraus der zu einem jeweiligen Datensatz gespeicherte Volltext aufgerufen bzw. eine katalogisierte Web-Adresse (URL) geöffnet werden. Während ersteres im Fall meiner Datenbank problemlos funktioniert, scheitert das URL-Öffnen an meiner Gepflogenheit, zu einer Web-Adresse auch das Zugriffsdatum festzuhalten. So wird beim Aufruf aus der Kurzanzeige z. B. der katalogisierte Eintrag
    http://informationr.net/ir/12-4/paper330.html [16.10.2007] im Web-Browser unglücklicherweise in die Adresse http://informationr.net/ir/12-4/paper330.html%20%5B16.10.2007%5D umgesetzt, während dies im Eingabefenster ("reference window") durchaus nicht der Fall ist. Dort wird der in blauer Schrift dargestellte Link korrekt erkannt und kann, ohne dass das dahinter stehende Datum stört, durch simples Anklicken in einem Browser-Fenster geöffnet werden. Als viertes und auch recht nützliches neues Feature der Kurztitelliste ist anzuführen, dass dort als Alternative zu der mit einem separaten Suchfenster realisierten Recherche in der EndNote-Library nunmehr ein kleines Eingabefenster für eine "Quick Search" zur Verfügung steht, mit der sich ein guter Teil der Abfragen bewältigen lässt. Andere Neuerungen betreffen neben der Kurztitelliste ("library window") auch das Eingabefenster ("reference window") bzw. die dort bei der Datenerfassung und -pflege erscheinenden Felder und ihre Bezeichnungen. So steht nunmehr eine umfassendere Möglichkeit zur Gestaltung von Schriftart und -grösse der Felder und ihrer Inhalte zur Verfügung. Das Feld "Link to PDF" wurde in "File Attachment" umbenannt, zumal dort jetzt pro Datensatz bis zu 45 Dateien beliebiger Formate verlinkt werden können. Das Feld für die Erfassung von Kennungen für digitale Dokumente heisst jetzt "DOI" (Digital Object Identifier), da sich dieser Identifikator insbesondere für Online-Artikel wissenschaftlicher Fachzeitschriften durchgesetzt hat. Eine neue Funktionalität, die zur Erhöhung der Flexibilität bei der Verwendung von EndNote beitragen soll, verbirgt sich hinter den Headings "Sharing Your Reference Type Table" (Manual) bzw. "Exportieren und Importieren von angepassten Datenbankstrukturen" (deutschsprachiger Produktprospekt). Damit wird es bspw. möglich gemacht, die EndNoteDatenbank eines Kollegen, die dieser mit individuellen Modifikationen (Feldbezeichnungen, Standard-Referenztyp, Spaltendefinition der Kurztitelanzeige), versehen hat, in dieser modifizierten Form zu betrachten. Dazu muss allerdings zuerst die eigene Tabelle der dokumententypspezifischen Felddefinitionen ("reference type table") exportiert und an sicherer Stelle verwahrt werden. Diese Prozedur ist für den geschilderten Fall, der nicht allzu oft vorkommen wird, unschwer durchführbar - dies zeigte sich auch bei einem einfachen Test. Wollte man sie hingegen für den alltäglichen, parallelen Betrieb von Datenbanken mit unterschiedlicher Struktur (z.B. Literatur- vs. CD- oder Filmdatenbank) nutzen, so bedürfte sie noch einer weiteren, ein ergonomisches Arbeiten besser unterstützenden Automatisierung.
    Auch für die gemeinsame Verwendung von EndNote mit der Textverarbeitung wurden einige Verbesserungen eingebaut (von mir noch nicht ausprobiert). So gibt es etwa eine neue Word 2007 für Windows Multifunktionsleiste mit "Cite While You Write"-Befehlen, Konflikte mit anderen in Word eingebundenen Programmen wurden beseitigt, und auch OpenOffice-Dokumente (ODT) werden jetzt bei der Erstellung formatierter Zitate und Literaturverzeichnisse unterstützt. Schließlich sei noch erwähnt, dass EndNote nunmehr auch auf Pocket PCs mit dem Betriebssystem Windows Mobile lauffähig ist. Von den vier in meiner früheren Rezension zu Version X angeführten Desiderata wurden durch die neue Version zwei erfüllt. Die Sortierung der Kurztitelliste ist jetzt, wie oben dargestellt, transparenter und das Programm startet auch wieder schneller. Die anderen beiden früher aufgelisteten Punkte - fehlende Beziehungen zwischen Datensätzen (Stichwort "Sammelwerke") und verbesserbare Dublettenerkennung - sind noch offen. Eine damals nicht erwähnte Kleinigkeit, die aber bei der alltäglichen Dateneingabe und -pflege durchaus "nervt", ist das Fehlen der bisher nicht in das Programm integrierten Sonderzeichentabelle. Um ein Sonderzeichen - und sei dies auch nur ein simpler Gedankenstrich - einzugeben, muss dieses von irgendwoher kopiert werden (am besten aus der Windows-eigenen Zeichentabelle, die dann stets neben EndNote geöffnet sein muss). In Summe kann festgehalten werden, dass EndNote mit der vorliegenden Version X1 wieder ein Stück besser geworden ist. Dass die Software ja insgesamt nicht viele Wünsche offen lässt, wurde bereits in der letzten Besprechung vermerkt. Es ist aber erfreulich, dass dem Hersteller daran liegt, auch einem so etablierten Produkt immer wieder ein wenig "Modellpflege" angedeihen zu lassen."
  10. Heckner, M.: Tagging, rating, posting : studying forms of user contribution for web-based information management and information retrieval (2009) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3931) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3931,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3931, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3931)
      0.25 = coord(1/4)
    
    Abstract
    Die Entstehung von Social Software ermöglicht es Nutzern, in großem Umfang im Netz zu publizieren. Bisher liegen aber nur wenige empirische Befunde zu funktionalen Eigenschaften sowie Qualitätsaspekten von Nutzerbeiträgen im Kontext von Informationsmanagement und Information Retrieval vor. Diese Arbeit diskutiert grundlegende Partizipationsformen, präsentiert empirische Studien über Social Tagging, Blogbeiträge sowie Relevanzbeurteilungen und entwickelt Design und Implementierung einer "sozialen" Informationsarchitektur für ein partizipatives Onlinehilfesystem.
    Classification
    AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
    RVK
    AN 96800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Bewertung, Effizienz, Qualität
  11. Manovich, L.: Auf den Spuren der globalen digitalen Kulturen : Kulturanalytik für Anfänger (2009) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 742) [ClassicSimilarity], result of:
          0.030999837 = score(doc=742,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 742, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=742)
      0.25 = coord(1/4)
    
    Abstract
    Noch vor nur fünfzehn Jahren hatten Kulturwissenschaftler es meist mit relativ kleinen Informationsbeständen zu tun, die präzise in Verzeichnissen und Listen organisiert und von vornherein bestimmten Kategorien zugeordnet waren. Im Gegensatz dazu haben wir es heute mit einer riesigen, schlecht organisierten, ständig wachsenden und sich verändernden Informationswolke zu tun: wir "googeln". Der Aufstieg der Suche als vorherrschende Form des Auffindens von Information ist Ausdruck eines fundamentalen Wandels in unserer informationellen Umwelt. Wir sind Zeugen einer exponentiellen Explosion der Daten, die die Menschen generieren, erfassen, analysieren, visualisieren und speichern - einschließlich kultureller Inhalte. Am 25. August 2008 gaben die Softwaretechniker bei Google bekannt, dass der Index der Webseiten, den Google mehrmals täglich durchrechnet, eine Trillion URLs erreicht habe. Im selben Monat berichtete YouTube, dass seine Nutzer jede Minute 13 Stunden neues Videomaterial auf die Seite hochladen. Und im November 2008 erreichte die Zahl der Bilder auf Flickr drei Milliarden. Die Informationsbombe, die von Paul Virilio 1998 beschrieben wurde, ist nicht nur einmal explodiert. Sie hat eine Kette weiterer Explosionen ausgelöst, deren Gesamtwirkung heftiger ist, als irgendjemand vorhersehen hätte können. 2008 schätzte die International Data Corporation (IDC), dass das digitale Universum bis zum Jahr 2011 auf das zehnfache seiner Größe von 2006 anwachsen würde. Dies entspricht einer jährlichen Wachstumsrate von 60%.6 Natürlich ist es möglich, dass die globale Wirtschaftskrise, die 2008 einsetzte, dieses Wachstum verlangsamen wird, aber wahrscheinlich nicht um viel.
  12. Nohr, H.: Theorie des Information Retrieval II : Automatische Indexierung (2004) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 1008) [ClassicSimilarity], result of:
          0.030999837 = score(doc=1008,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 1008, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1008)
      0.25 = coord(1/4)
    
    Abstract
    Ein großer Teil der Informationen - Schätzungen zufolge bis zu 80% - liegt in Organisationen in unstrukturierten Dokumenten vor. In der Vergangenheit wurden Lösungen für das Management strukturierter Informationen entwickelt, die es nun auch zu erreichen gilt für unstrukturierte Informationen. Neben Verfahren des Data Mining für die Datenanalyse treten Versuche, Text Mining (Lit. 06) auf die Textanalyse anzuwenden. Um gezielt Dokumente im Repository suchen zu können, ist eine effektive Inhaltserkennung und -kennzeichnung erforderlich, d.h. eine Zuordnung der Dokumente zu Themengebieten bzw die Speicherung geeigneter Indexterme als Metadaten. Zu diesem Zweck müssen die Dokumenteninhalte repräsentiert, d.h. indexiert oder klassifiziert, werden. Dokumentanalyse dient auch der Steuerung des Informations- und Dokumentenflusses. Ziel ist die Einleitung eines "Workflow nach Posteingang". Eine Dokumentanalyse kann anhand erkannter Merkmale Eingangspost automatisch an den Sachbearbeiter oder die zuständige Organisationseinheit (Rechnungen in die Buchhaltung, Aufträge in den Vertrieb) im Unternehmen leiten. Dokumentanalysen werden auch benötigt, wenn Mitarbeiter über einen persönlichen Informationsfilter relevante Dokumente automatisch zugestellt bekommen sollen. Aufgrund der Systemintegration werden Indexierungslösungen in den Funktionsumfang von DMS- bzw. Workflow-Produkten integriert. Eine Architektur solcher Systeme zeigt Abb. 1. Die Architektur zeigt die Indexierungs- bzw. Klassifizierungsfunktion im Zentrum der Anwendung. Dabei erfüllt sie Aufgaben für die Repräsentation von Dokumenten (Metadaten) und das spätere Retrieval.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  13. Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 1022) [ClassicSimilarity], result of:
          0.030999837 = score(doc=1022,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 1022, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1022)
      0.25 = coord(1/4)
    
    Abstract
    Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
  14. Rieder, B.: Demokratisierung der Suche? : von der Kritik zum gesellschaftlich orientierten Design (2009) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 1024) [ClassicSimilarity], result of:
          0.030999837 = score(doc=1024,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 1024, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1024)
      0.25 = coord(1/4)
    
    Abstract
    Seit die Techniker der Digital Equipment Company 1995 AltaVista einführten, die erste große Suchmaschine für das World Wide Web, hat sich vieles verändert. 2009 ist das Web die zentrale Plattform für alles, was mit Information und Kommunikation zu tun hat: es bietet Raum für eine Vielfalt von Aktivitäten und Vorgängen, die früher über zahlreiche verschiedene Kanäle verteilt waren. Mit 1,5 Milliarden Nutzern, mehr als einer Trillion Seiten und einer Palette von Services, die von der einfachen Darstellung von Text-basierter Information bis zu hoch entwickelten Applikationen und Multimedia-Technologien reichen, ist das Web der Gegenwart ein Informationsgigant und außerdem zentraler Bestandteil einer kapitalistischen Ökonomie, die sich von einem industriellen zu einem kognitiven Produktionsmodus entwickelt. Da das Web kein eigenes Index- oder Katalogsystem mitbringt, liegt es an den Suchmaschinen, die unübersichtliche Struktur des Web den Nutzern zu erschließen. Obwohl Suchmaschinen komplexe Werkzeuge sind, ist ihre Handhabung überraschend einfach: Eine aus einem oder mehreren Wörtern bestehende Suchanfrage führt zu einer geordneten Liste von Seiten, welche die angegebenen Begriffe enthalten. Es ist kein Wunder, dass Suchmaschinen zu den beliebtesten Internet-Diensten gehören.
  15. Popper, K.R.: ¬Das offene Universum : ein Argument für den Indeterminismus (2001) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 501) [ClassicSimilarity], result of:
          0.030999837 = score(doc=501,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 501, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=501)
      0.25 = coord(1/4)
    
    Abstract
    "In Das offene Universum: Ein Argument für den Indeterminismus präsentiert Popper eine Kritik des 'wissenschaftlichen' und des metaphysischen Determinismus und argumentiert, daß die klassische Physik den Determinismus genauso wenig voraussetzt oder impliziert wie die Quantenphysik. Dennoch stellt er fest, daß der metaphysische Determinismus den Werken vieler zeitgenössischer Quantenphysiker immer noch zugrundeliegt, inklusive den Werken von Gegnern des Determinismus. Popper verfolgt die Rollen, die die subjektive Interpretation der Wahrscheinlichkeit in der Physik immer noch spielt, bis hin zu diesen metaphysischen deterministischen Voraussetzungen [.]. Der [.] Band tritt in seiner Abhandlung über den Determinismus für die Ansicht ein, daß unsere Rationalität, was die Voraussage des zukünftigen Wachstums des menschlichen Wissens anbelangt, begrenzt ist. Wenn es keine solche Grenze gäbe, wären ernsthafte Argumente sinnlos: und ihr Auftreten wäre eine Illusion.Popper argumentiert also, daß die menschliche Rationalität, was Kritik anbelangt, unbegrenzt ist, jedoch begrenzt, was ihre Voraussagekraft anbelangt; und er zeigt, daß die Unbegrenztheit und die Begrenztheit jede in ihrem Gebiet notwendig sind, damit es die menschliche Rationalität überhaupt geben kann." (Der Herausgeber im Nachwort).
  16. Postman, N.: Widersteht dem Info-Terror! : Prophezeihungen über die Zukunft des Lesens in einer Welt der Elektroniker und Gaffer (2000) 0.01
    0.0077188974 = product of:
      0.03087559 = sum of:
        0.03087559 = weight(_text_:und in 594) [ClassicSimilarity], result of:
          0.03087559 = score(doc=594,freq=62.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27287117 = fieldWeight in 594, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=594)
      0.25 = coord(1/4)
    
    Abstract
    "Die vergangenen Jahre habe ich viel Zeit damit zugebracht, dem Fernsehen (und anderen vergleichsweise neuen Medien) die Schuld für eine ganze Reihe der offensichtlicheren Fehlfunktionen in die Schuhe zu schieben, an denen die westliche Kultur heute krankt - insbesondere in den USA. Das komme daher, so wurde mir gesagt, weil ich von Natur aus ein Schwarzseher sei, allzeit bereit, das Falsche zu verurteilen anstatt das Richtige zu loben. Einige meiner Studenten trieben diesen Vorwurf bis zu der Behauptung, ich wäre, sofern ich im Zeitalter der Inkunabeln (also während der ersten fünfzig Jahre nach der Erfindung der Druckerpresse) gelebt hätte, garantiert jedermann mit einer ellenlangen Litanei düsterer Prophezeiungen bezüglich der Gefahren maschinell verfertigter Bücher und der allgemeinen Verbreitung des Lesens und Schreibens auf die Nerven gefallen. Mit dieser Ansicht liegen die zitierten Studenten jedoch nur halb richtig. Einmal angenommen, ich hätte im Jahre 1450 genug Grips besessen, um mitzubekommen, was sich da gerade anbahnte, hätte ich den Heiligen Stuhl in der Tat eindringlich vor der Druckerpresse gewarnt - durch sie werde das Wort Gottes auf dem Küchentisch eines jeden Christenmenschen landen, die Autorität der Kirchenhierarchie somit ernstlich in Gefahr gebracht. Hätte der Papst mir gar eine Audienz gewährt, hätte ich folgende Warnung ausgesprochen: Mit der Druckerpresse bewaffnet war Martin Luther weit mehr als nur irgendein unzufriedener, an chronischer Verstopfung leidender Mönch - das gedruckte Wort machte ihn zu einem Umstürzler, den man ernst nehmen musste. Vermutlich hätte ich als Nächstes die ortsansässigen Fürsten gewarnt, dass ihre Tage gezählt seien - das Druckhandwerk werde den neuen Begriff der Nation ins Leben rufen, was sämtlichen lokalen Potentaten den Garaus machen musste. Und falls die Bruderschaft der Alchemisten mir erlaubt hätte, bei ihrer Jahresversammlung (wenn man sich ein solches Ereignis überhaupt vorstellen kann) die Eröffnungsansprache zu halten, hätte ich den Anwesenden sogleich nahe gelegt, einen neuen Beruf zu ergreifen; die Druckerkunst werde dem induktiv vorgehenden, wissenschaftlichen Denken massiven Auftrieb geben, die Alchemie wiederum den kritischen Blick eines zum Allgemeingut gewordenen Gelehrtenwissens nie und nimmer überleben. Auch jedem mir zufällig begegnenden fahrenden Sänger hätte ich auf der Stelle kundgetan, 'dass sein Gewerbe binnen hundert Jahren, vermutlich sogar noch schneller, am Ende sein werde und allen Liedern einzelner Stämme und allen epischen Heldengesängen das letzte Stündlein geschlagen habe; alle Barden seien demnach gut beraten, ihren Auszubildenden dringend ans Herz zu legen, sich ab sofort auf das Verfassen von Essays und Romanen zu verlegen. Solche Sprengkraft besaß der Buchdruck mit beweglichen Lettern. Es war beileibe nicht mmer Schlimmes, das in den genannten Prophezeiungen vorausgesagt wurde. Deshalb eingangs auch die Anmerkung, dass meine Studenten nur halb richtig lagen. Ob eine Prophezeiung negativ ist oder nicht, kommt ganz auf den jeweiligen Standpunkt an. So hätten zum Beispiel viele, die zu Luthers Zeiten in Nordeuropa lebten, den Niedergang des Heiligen Stuhls freudig begrüßt. Und natürlich wären die Katholiken dieser Zeit ob dieser Aussicht vor Zorn ganz außer sich gewesen.
    Content
    Als Jude hingegen wäre es einem wohl so oder so egal gewesen: Es macht keinen großen Unterschied, ob ein Pogrom im Namen eines Martin Luther oder eines Leo X. angezettelt wird. Worauf ich hinauswill, ist Folgendes: Die Umbrüche, die neue Medien bewirken, bringen manchen Menschen Nutzen, anderen dagegen Schaden, bei einigen wenigen wiederum fallen sie nicht weiter ins Gewicht. Dies bitte ich den Leser im Auge zu behalten, wenn ich im Folgenden einige Prophezeiungen über die Zukunft des Lesens in einer Welt der Elektronik wage. Obwohl das Gutenbergzeitalter im 15. Jahrhundert begann, erfolgte die tief greifende Umwälzung der Struktur des Lesens im 18. Jahrhundert. Kennzeichnend dafür waren eine weit verbreitete literarische Bildung, der Aufstieg des Buchs zum Massenmedium, dazu das Aufkommen öffentlicher Büchereien, die Herausbildung von Zeitschriften für ein allgemein interessiertes Publikum sowie die Entwicklung der Tageszeitung. Aus alledem erwuchs die glückliche Fügung, dass das Beste, das seinerzeit gedacht und geschrieben wurde, auf ein breites Publikum stieß, das nicht nur gewillt, sondern geradezu erpicht darauf war, es zu lesen. Der Kollaps dieser glücklichen Fügung begann im 20. Jahrhundert, und wie ich vermute, wird sich auch im 21. Jahrhundert dieser Prozess des Niedergangs fortsetzen. Insgesamt stimme ich George Steiner vollkommen zu, der überzeugt ist, dass sich zukünftig drei Arten des Lesens herauskristallisieren werden: Erstens die Entspannungslektüre, der das am Flughafen gekaufte Buch seine große Beliebtheit verdankt, und zweitens das Lesen zum Informationserwerb, das einem sogleich in den Sinn kommt, sobald man auf Begriffe wie "Computerausdruck", "Teletext" und "E-Mail" stößt. Als dritte Lektüresorte dann die Restbestände des großen Zeitalters literarischer Bildung, die derzeit rasch von den Zwängen des Informationszeitalters ausgedünnt werden. Solche Lektüre braucht Schweigen, Geduld, Bereitschaft zum Nachdenken und die Fertigkeit, komplexe Zusammenhänge als Herausforderung zu begreifen, vor allem aber die Bereitschaft zum zeitweiligen Ausblenden der Zerstreuungen der Welt, auf dass Leser und Text zu einer Einheit der Zeit, des Raumes und der Fantasie verschmelzen können. Letztgenanntes Lesen erfordert vermutlich spezialisierte Kenntnisse, weshalb auch nur wenige dazu im Stande sein werden. Natürlich ist durchaus denkbar, dass neue Wege des Transports von Schriftspra
    Footnote
    ehe - etwa E-Mail - so eingesetzt werden, dass sie nachdenkliche Lektüre fördern. 'Ich jedoch bezweifle das. Elektronische Kommunikation und hohe Wertschätzung von Geschwindigkeit gehen Hand in Hand, und jene Sorte von Reflexion und Sorgfalt, wie sie ein gedrucktes Buch verlangt, ist für E-Mails und sonstige Formen der Computertechnik nun einmal nicht vonnöten. Ich habe vorhin behauptet, dass sich diese drei Arten des Lesens zukünftig herauskristallisieren werden - tatsächlich sind sie bereits jetzt Wirklichkeit. Ich will diesen Punkt nicht weiter vertiefen; in den nächsten Jahren wird dies offensichtlich genug auf der Hand liegen. Und falls ich Recht habe: Welche Folgen wird das haben? Ganz offensichtlich wird sich das Wesen des politischen Diskurses ändern (dies ist bereits geschehen). Denn über weite Strecken des 18., 19. und sogar noch des 20. Jahrhunderts war Politik die Politik des geschriebenen Wortes. Doch je länger sich der Niedergang ernsthaften Lesens fortsetzt, desto mehr Aufmerksamkeit widmen die Bürger der Person der Politiker, statt sich deren Ideen und konkrete Politik anzusehen. Bereits heute ist dieser bedenkliche Prozess weit gediehen. Hat irgendwer jemals eine schriftliche Äußerung zu Gesicht bekommen, die Bill Clinton oder sonst ein führender Politiker des Westens zu Papier gebracht hat? Auch im Bereich der Religion wird es nicht viel anders aussehen. Ich vermute zwar, dass die Bibel auch weiterhin ihre Leser finden wird, doch es ist gut möglich, dass diese den Inhalt der Schrift eher über Filme und Zeichentrickfilme im Fernsehen kennen lernen werden als durch das Buch selbst. Dennoch werden die (visuellen) Auftritte charismatischer Prediger auf der Mattscheibe die Gläubigen nachhaltiger prägen als alles, das jemals über Religion geschrieben worden ist. Selbst in den aktuellen Nachrichten wird unser Bewusstsein primär durch das visuelle Stückwerk der Bilder von Personen und Orten geprägt werden, weit weniger dagegen durch rational nachvollziehbare, komplexe Ideen, die schriftlich ausformuliert wurden. hat all dies zu bedeuten, dass die Menschheit über weniger Informationen verfügen wird? Das glaube ich nicht. Im Gegenteil: Je deutlicher wir uns von einer Kultur der Bücherleser und Zeitungsleser zu einer Kultur der Gaffer und E-Mailer bewegen, desto mehr Informationen werden dem Individuum zur Verfügung stehen - mehr Informationen, als der Mensch jemals zuvor geboten bekam. Der Großteil davon wird einem in unterschiedlichster Gestalt aufgetischt werden, doch (genau wie jetzt) als immenser Wust, zudem weitgehend unangefordert. De facto wird Information zunehmend zu einer Art Müll werden, wird sich die Menschheit gegen bislang noch nicht erlebten Informationsterror wehren müssen. Bestätigen diese Vorhersagen meinen Ruf als Schwarzseher? Vielleicht. Immerhin unterstelle ich recht ungeschminkt, dass die Menschen ihre politischen Institutionen und auch ihre Befähigung zu wohl durchdachten Urteilen erodieren, je mehr sie sich von Lesern zu Elektronikern bewegen. Womöglich hat diese Verschiebung ihre Vorteile, so dass sich unterm Strich mehr Nutzen als Schaden ergeben mag. Mir ist sehr wohl bewusst, dass kein Geringerer als Sokrates die Ansicht vertrat, der Wechsel von der mündlichen Tradition zur Schrift werde sich als Katastrophe erweisen. In diesem Punkt irrte er, und es ist gut möglich, dass auch ich mich in meiner Einschätzung irren mag. Und dennoch: Ich bezweifle es."
  17. Lohberg, P.: Suchet, so werdet ihr finden ... : Mit der richtigen Suchmaschine leichter an Information aus dem Netz kommen (2001) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 6736) [ClassicSimilarity], result of:
          0.030688273 = score(doc=6736,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 6736, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6736)
      0.25 = coord(1/4)
    
    Abstract
    Da hat man nun das gesamte Wissen der Menschheit im Griff, wohlverteilt auf Milliarden von Internetseiten. Und dann findet man nicht einmal die rudimentärsten Informationen zum gesuchten Thema. Suchmaschinen sind die Geister, die man rief und nun nicht mehr loswerden will - auch wenn sie häufig für viel Frustration sorgen: Auf eine einfache Frage bekommt man eine Unmenge von Antworten, die häufig gar nichts mit der Frage zu tun haben. Um mit den modernen Heinzelmännchen des Internets vernünftig umgehen zu können, sind Kenntnisse über die Arbeitsweise dieser Dienste hilfreich. Drei Arten von Anlaufstellen für Suchende gibt es im Netz: Kataloge, Suchmaschinen und Meta-Suchmaschinen. Bei den Katalogen (yahoo.de, web.de) hangelt man sich durch die Sites wie durch die Seiten eines Buches. Man klickt sich durch Rubriken und zahllose Unterrubriken, bis man dort angelangt ist, wo die gesuchte Information stehen könnte. Leider muß hier der Konjunktiv benutzt werden, denn die Struktur der Suchkataloge bedingt, daß die Internetseiten dort angemeldet werden müssen, wo sie am sinnvollsten plaziert sind: in der Unterrubrik der Unterrubrik der ... Das kann nur von Hand geschehen, und selbst der Betreiber der Seite muß sich bis dorthin durchklicken, wo er seine Information plaziert haben will. Von Vorteil ist daß dann am Ende Menschen die Einträge überprüfen, häufig hochbezahlte Akademiker, die aber kaum der riesigen Menge an neuen Seiten Herr werden. Dennoch, in Katalogen gefundene Informationen sind meist relativ hochwertig. Klassische und Meta-Suchmaschinen Die eigentlichen Suchmaschinen (altavista.de, google.de) schicken kleine Spider-Programme in das Netz oder auf Anfrage zu bestimmten Seiten. Diese Programme durchsuchen selbständig die Seiten nach den gewünschten Begriffen. Die eine indiziert den gesamten Text, die andere legt das Hauptgewicht auf die Meta-Tags im Kopf der HTML-Datei - Auszeichnungen, die den Inhalt der Seite beschreiben (sollen), andere legen großen Wert auf den Titel oder den Datei- oder DomainNamen. jeder Seitenbetreiber legt großen Wert darauf, bei einer Suchabfrage weit vorne gelistet zu werden. Das Ranking ist wichtig, denn kaum ein Suchender sieht auf Seite zehn der Suchergebnisse nach. Meta-Suchmaschinen (metager.de, metaspinner.de) fragen Datenbestände mehrerer Suchmaschinen gleichzeitig ab. So kann man sich die Suche bei unterschiedlichen Suchmaschinen sparen. Wie aber frage ich eine Suchmaschine? Fast jeder Intemetnutzer kennt eine oder mehrere Suchmaschinen. Nur wenige aber haben je auf den Link zur Hilfeseite oder Profisuche - meist ganz oben in direkter Nähe des Suchfensters - geklickt. Dort findet sich Wichtiges: die Sprache, die das Suchprogramm versteht. Hier kann man sich informieren, wie man die Suche rein technisch eingrenzen und dadurch beschleunigen kann. Viele Suchmaschinen kennen Boolsche Operatoren, mit denen man Worte ausschließen "-" oder Worte kombinieren kann "+". Auch Gänsefüßchen (sprich: Anführungszeichen) kommen häufig zum Einsatz. Damit kann man Wortkombinationen oder Satzfragmente zusammenpacken. So werden diese Kombinationen in bestimmter Reihenfolge gesucht - und theoretisch auch gefunden. Die Spiderprogramme der Suchmaschinen können, so schnell sie auch sein mögen, nur einen Bruchteil der Seiten, die täglich neu ins Netz gestellt werden, besuchen. Wie suche ich nun am besten? Angenommen, Sie suchen eine Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Es liegt auf der Hand, daß die Suche nach einem dieser Worte zu viele unnötige Seiten finden würde. Also nehmen Sie Unterkunft + Behinderte + Rollstuhl + Schwarzwald. Das ergibt dann ein knappes Dutzend Ergebnisse, von denen eines möglicherweise zutrifft. Wenn nicht finden Sie sicher einen weiterführenden Link, eine Adresse oder Telefonnummer. Der Autor dieser Zeilen hat sich - entgegen der verbreiteten Lehrmeinung - auf einen anderen Weg begeben. Als Freund der Suchmaschinen Google und MetaGer gibt er den vollständigen Satz ein: Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Und siehe da, es funktioniert! Ein paar wenige Ergebnisse werden angezeigt. Aber fast alle passen haargenau!
  18. Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 2688) [ClassicSimilarity], result of:
          0.030688273 = score(doc=2688,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 2688, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2688)
      0.25 = coord(1/4)
    
    Abstract
    Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
  19. Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
          0.030688273 = score(doc=2815,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 2815, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2815)
      0.25 = coord(1/4)
    
    Content
    "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
    Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
    Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
  20. Ansorge, K.; Vierschilling, N.: http://dnb.ddb.de : Von dicken Wälzern zur Online-Verzeichnung (2003) 0.01
    0.007672068 = product of:
      0.030688273 = sum of:
        0.030688273 = weight(_text_:und in 2952) [ClassicSimilarity], result of:
          0.030688273 = score(doc=2952,freq=20.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2712157 = fieldWeight in 2952, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2952)
      0.25 = coord(1/4)
    
    Abstract
    Wer kennt sie nicht, die Deutsche Nationalbibliografie, repräsentiert durch das zahlreiche Bibliotheksregale füllende Fünfjahresverzeichnis. Schwarze, dicke Bände mit Goldaufdruck - zahlreiche Generationen von Bibliotheksauszubildenden haben ihren Inhalt, ihre Besonderheiten, ihre Berichtszeiträume gelernt. Die Deutsche Bibliothek erfüllt mit der Deutschen Nationalbibliografie ihre durch das »Gesetz über die Deutsche Bibliothek« definierte Pflicht zur umfassenden Dokumentation des deutschen Schrifttums. Gab es 1990 noch zwei getrennte Verzeichnisse - die »Deutsche Nationalbibliographie« der Deutschen Bücherei Leipzig sowie die »Deutsche Bibliographie« der Deutschen Bibliothek Frankfurt am Main -, so brachte die Vereinigung zu Der Deutschen Bibliothek eine entscheidende Veränderung: Die beiden Verzeichnisse verschmolzen Anfang 1991 zu einem gemeinsamen Verzeichnis mit dem Titel »Deutsche Nationalbibliographie und Bibliographie der im Ausland erschienenen deutschsprachigen Veröffentlichungen«. Die Deutsche Bibliothek hat seit geraumer Zeit Überlegungen angestellt, wie sie künftig ihren gesetzlichen Auftrag zur bibliografischen Verzeichnung erfüllen kann. Wir stellen Ihnen hiermit die Ergebnisse dieser Überlegungen vor und erläutern, wie ab dem Jahr 2004 die Deutsche Nationalbibliografie aussehen wird. Wir gehen davon aus, dass künftig mit der Datenbank Der Deutschen Bibliothek", in der bereits heute der Bibliotheksbestand verzeichnet und über öffentliche Netze kostenfrei recherchierbar ist, die Erstverzeichnung und damit der gesetzliche Auftrag erfüllt ist. Die Kontinuität der bibliografischen Verzeichnung wird durch das Datensicherungskonzept und das Engagement Der Deutschen Bibliothek auf dem Gebiet der Langzeitverfügbarkeit sichergestellt. Die Deutsche Bibliothek liegt mit dieser Entscheidung im Trend der Entwicklung bei den Nationalbibliografien anderer Länder. Neben dieser frei zugänglichen Datenbank soll ein separates nationalbibliografisches Angebot realisiert werden, das die Bedürfnisse derjenigen Kunden erfüllt, die als Mehrwert gegenüber der Nutzung der Datenbank die Selektion der neu hinzugekommenen Datensätze in bestimmten Lieferintervallen nutzen möchten oder die auf eine bestimmte, gewohnte Ausgabeform nicht verzichten möchten. Diese zukünftigen Angebote entsprechen den Ergebnissen der Nutzerbefragung Der Deutschen Bibliothek, auf die später noch im Detail eingegangen wird. Bedingt durch die Möglichkeiten der technischen Realisierung sollen die neuen Angebote in zwei Stufen eingeführt werden: Angebote, für die bereits Verfahren existieren bzw. die Iosgelöst von der Entwicklung des noch zu schaffenden Gesamtkatalogs entwickelt werden können: - Druckausgabe der Hauptteile der einzelnen Bibliografiereihen in Heftform, - HTML-Dateien der Hauptteile der einzelnen Bibliografiereihen zur Bearbeitung am Bildschirm mit der Möglichkeit, über die Sachgruppen zu navigieren, Teile auszuschneiden und abzuspeichern oder auszudrucken. Gesamtkatalog über ein noch zu entwickelndes Portal Der Deutschen Bibliothek mit - Filter auf die einzelnen Reihen der Deutschen Nationalbibliografie,
    - Möglichkeit des Generierens von SDIProfilen (z.B. wöchentliche Abfrage einer bestimmten Bibliografiereihe und/oder einer bestimmten Sachgruppe auf neu hinzugekommene Titel), - Auswahl bestimmter Medienarten (z. B. nur Online-Publikationen oder Dissertationen), - Fortentwicklung der Möglichkeit, Datensätze in strukturierter Form online abzurufen und damit das jetzige Angebot über DDB-online durch weitere Datenformate wie z.B. den Zugriff auf weitere Datenbestände wie die Daten des Deutschen Musikarchivs Berlin zu erweitern, - Verlinkung der Suchanfrage zu einer Bestellmöglichkeit des Titels beim Buchhandel. Daneben bleiben natürlich die bisherigen Angebote des Datendienstes und der Titelkartendienste erhalten. Dass eine Änderung der bisherigen Erscheinungsweise notwendig ist, belegen unter anderem die Absatzzahlen der gedruckten Ausgaben der Deutschen Nationalbibliografie. Die Zahl der Abonnenten für die gedruckten Verzeichnisse ist in den vergangenen Jahren kontinuierlich gesunken. Der Verlag MVB Marketing- und Verlagsservice des Buchhandels GmbH hat Der Deutschen Bibliothek aufgrund dieser Entwicklung mitgeteilt, dass die gedruckten Ausgaben der Deutschen Nationalbibliografie in der jetzigen Ausstattung nicht mehr wirtschaftlich herzustellen sind.

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications