-
Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005)
0.01
0.009476079 = product of:
0.037904315 = sum of:
0.037904315 = weight(_text_:und in 4675) [ClassicSimilarity], result of:
0.037904315 = score(doc=4675,freq=82.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.31381142 = fieldWeight in 4675, product of:
9.055386 = tf(freq=82.0), with freq of:
82.0 = termFreq=82.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4675)
0.25 = coord(1/4)
- Content
- "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
-
Lipow, A.G.: ¬The virtual reference librarian's handbook (2003)
0.01
0.009432644 = product of:
0.037730575 = sum of:
0.037730575 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
0.037730575 = score(doc=4992,freq=52.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.312373 = fieldWeight in 4992, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4992)
0.25 = coord(1/4)
- Footnote
- Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
-
Stafford, T.; Webb, M.: Mind hacks : tips & tools for using your brain (2005)
0.01
0.00941812 = product of:
0.03767248 = sum of:
0.03767248 = weight(_text_:und in 135) [ClassicSimilarity], result of:
0.03767248 = score(doc=135,freq=36.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.31189203 = fieldWeight in 135, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=135)
0.25 = coord(1/4)
- Content
- Mit 2 Abb. zu folgendem Beobachtungsexperiment: Eines der beiden Gesichter scheint männlich zu sein, das andere weiblich. Deckt man die linke Hälfte beider Gesichter mit einem Stück Papier zu, so verkehrt sich diese Zuweisung in ihr Gegenteil! Warum? Für die Wahrnehmung - zum Beispiel - des Geschlechts dominiert die rechte Hirnhälfte. Die aber verarbeitet vorrangig Informationen aus der linken Hälfte des Gesichtsfeldes. Beide Bilder sind zusammengesetzt: aus einer männlichen linken und einer weiblichen rechten Gesichtshälfte, und umgekehrt.
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2005, H.12, S.106-107 (M. Jäger): "Das Buch gehört in eine Reihe mit »eBay Hacks«, »Google Hacks« und »Mac OS X Hacks« aus demselben Verlag: Anleitungen, ein System etwas anders zu nutzen, als sein Anbieter das vorgesehen hat. Und doch fällt es aus dem Rahmen. Kein Computer oder Betriebssystem wird gehackt, sondern das Gehirn. Wie die anderen »Hack«Bücher ist es nicht als Sachbuch im herkömmlichen Sinn angelegt, sondern als Sammlung von hundert Experimenten, »Hacks«, aus zehn verschiedenen Bereichen. Gezeigt werden erstaunliche Selbstversuche, unter anderem zum visuellen System, zu Aufmerksamkeitssteuerung, Hören und Sprache, Bewegung, Erinnerung, Schlussfolgerung und Gestaltwahrnehmung. Jedes neurologische Phänomen wird zunächst allgemein erläutert; es folgen die Beschreibung eines zugehörigen Experiments und eine kurze Erklärung sowie Angaben zu weiterführenden Texten und Internetlinks. Tom Stafford, Psychologe an der Universität Sheffield (England), und Matt Webb, Ingenieur, Designer und freischaffender Autor, unter anderem für die BBC, wurden von Spezialisten auf dem jeweiligen Gebiet unterstützt. Die einst beliebte Metapher vom Gehirn als Computer ist in der ursprünglichen Form nicht mehr haltbar, wie auch die Autoren im Vorwort einräumen. Dafür haben sich in den letzten Jahrzehnten zu viele und wesentliche Differenzen offenbart, etwa was Speicherung und Verarbeitung von Informationen angeht. Dennoch gibt es hinreichend viele Parallelen, um die Verwendung des Begriffs »Hack« zu rechtfertigen.
Natürlich sind »Mind Hacks« keine Schwachstellen oder geheimen Kniffe, mit denen man eine vom »Entwickler« so nicht beabsichtigte Funktion des Gehirns freischalten könnte. Es gibt ja auch keinen Systemadministrator, bei dem man sich über die Fehlprogrammierung beschweren könnte - zumindest zu Lebzeiten nicht. Vielmehr offenbaren die Hacks die buchstäblich eigenwillige Funktionsweise des Gehirns: neuronal festgelegte Annahmen über die Umwelt, die dem »Ich« ihrer Natur nach so nah sind, dass sie nicht bewusst werden, wie eine Brille, die man nicht mehr wahrnimmt. In diesem Sinn sind wir meist Gefangene der Struktur unseres neuronalen Netzes. Stafford und Webb räumen mit der Vorstellung auf, man nutze nur zehn Prozent des Gehirns (Hack #6), und erklären viele alltägliche Phänomene, etwa, warum man sich nicht selbst kitzeln kann (Hack #65), warum man trotz schlechter Verbindung am Telefon immer noch die vertraute Stimme eines Freundes erkennen kann (Hack #33) oder warum der Klang von Worten neben dem Inhalt auch Bedeutung, etwa zur Form des bezeichneten Gegenstandes, vermittelt (Hack #50). Interessant auch Hack #67. Dort wird beschrieben, dass Gegenstände förmlich danach verlangen, auf eine bestimmte Art und Wei- se benutzt zu werden. Bereits durch die Form des Griffs sagt die Tür, dass sie gedrückt werden will; jedenfalls neigen die Leute dazu, das zu tun, auch wenn »Ziehen« draufsteht. Eine Notausgangstür sollte solche Missverständnisse besser nicht aufkommen lassen. Hack #99 schließlich weist auf die Bedeutung von verbaler Psychohygiene hin. Versuchspersonen, die Texte lasen, in die negative Begriffe eingeflochten waren, agierten anschließend in einer sozialen Versuchssituation deutlich aggressiver. Vielleicht gilt ja auch der Umkehrschluss, und Sie sollten dieses Buch entspannt im Sonnenschein auf einer Blumenwiese oder unter einem Regenbogen lesen, denn es birgt echte Schätze. Ein kurzweiliges Buch, das nicht in einem Zug gelesen werden muss und das zum Nachdenken über das Selbstverständnis des Lesers einlädt. Die vielen einfachen Experimente, die auf Alltagserfahrungen aufbauen, sorgen auch auf einer Party für Erstaunen, Belustigung und Gespräche jenseits des üblichen Smalltalks.
-
Bruner, J.: From communication to language (1975)
0.01
0.009359803 = product of:
0.037439212 = sum of:
0.037439212 = weight(_text_:und in 2635) [ClassicSimilarity], result of:
0.037439212 = score(doc=2635,freq=20.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3099608 = fieldWeight in 2635, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2635)
0.25 = coord(1/4)
- Abstract
- Bruner war der erste Erforscher des Spracherwerbs von Kindern, der Wittgensteins Problem zu würdigen wußte und eine Antwort darauf vorschlug. Wittgensteins allgemeinem Ansatz folgend, behauptete Bruner, daß das Kind den konventionellen Gebrauch eines sprachlichen Symbols dadurch erwirbt, daß es lernt, an einer Interaktionsform (Lebensform, Szene gemeinsamer Aufmerksamkeit) teilzunehmen, die es zunächst nichtsprachlich versteht, so daß die Sprache des Erwachsenen in geteilten Erfahrungen verankert werden kann, deren soziale Bedeutung es schon begreift. Eine Schlüsselkomponente dieses Prozesses ist zunächst ein Kind, das Erwachsene als intentionale Wesen auffassen kann, so daß es in bestimmten Kontexten seine Aufmerksamkeit mit ihnen teilen kann. Eine andere Komponente ist jedoch die bereits existierende, äußere soziale Welt, in der das Kind lebt. Um Sprache zu erwerben, muß das Kind in einer Welt leben, die strukturierte soziale Tätigkeiten aufweist, die es verstehen kann, so wie unser hypothetischer Besucher Ungarns das Kaufen von Fahrkarten und das Reisen mit Zügen verstand. Für Kinder bedeutet das häufig die Wiederkehr derselben routinemäßigen, allgemeinen Aktivität, so daß sie erkennen können, wie diese Aktivität aufgebaut ist und wie die verschiedenen sozialen Rollen in ihr funktionieren. Wenn wir am Spracherwerb interessiert sind, muß der Erwachsene außerdem ein neues sprachliches Symbol auf eine solche Weise verwenden, die das Kind als relevant für die gemeinsame Tätigkeit erkennen kann (nämlich im Gegensatz zur unvermittelten Ansprache des Ungarn auf dem Bahnhof). Wenn ein Kind in eine Welt geboren werden würde, in der dieselbe Art von Ereignis nie wiederkehrte, derselbe Gegenstand nie zweimal erschiene und Erwachsene nie dieselben Ausdrücke im selben Kontext verwendeten, dann würde im allgemeinen schwer zu sehen sein, wie dieses Kind eine natürliche Sprache erwerben könnte, welche kognitiven Fähigkeiten es auch immer haben möge. Eine Reihe von Untersuchungen hat gezeigt, daß Kinder nach ersten Fortschritten beim Spracherwerb neue Wörter am besten in Szenen gemeinsamer Aufmerksamkeit lernen. Oft handelt es sich dabei um solche, die in ihrer täglichen Erfahrung wiederkehren, wie Baden, Füttern, Windelwechseln, Vorlesen und Autofahren. Diese Tätigkeiten sind in vielen Hinsichten analog zu dem Szenario des Fahrkartenkaufs auf einem Bahnhof, insofern das Kind seine eigenen und die Ziele des Erwachsenen in der jeweiligen Situation versteht, was ihm ermöglicht, die Relevanz des Sprachverhaltens des Erwachsenen für diese Ziele zu erschließen. So stellten Tomasello und Todd fest, daß Kinder, die mit ihren Müttern längere Zeit bei Tätigkeiten gemeinsamer Aufmerksamkeit im Alter zwischen zwölf und achtzehn Monaten verbrachten, mit achtzehn Monaten ein größeres Vokabular hatten. Bei der Sprachverwendung Erwachsener innerhalb dieser Szenen gemeinsamer Aufmerksamkeit fanden Tomasello und Farrar sowohl korrelative als auch experimentelle Belege für die Hypothese, daß Mütter, die Sprache beim Versuch verwendeten, der Aufmerksamkeit ihrer Kinder zu folgen (d. h. über einen Gegenstand zu sprechen, der schon im Brennpunkt des Interesses und der Aufmerksamkeit des Kindes stand), Kinder mit einem größeren Vokabular hatten als Mütter, die Sprache beim Versuch verwendeten, die Aufmerksamkeit des Kindes auf etwas Neues zu lenken.
-
Rinn, R.; Werner, C.: ¬Der Neuerscheinungsdienst Der Deutschen Bibliothek : Eine Bilanz nach eineinhalb Jahren (2004)
0.01
0.009359803 = product of:
0.037439212 = sum of:
0.037439212 = weight(_text_:und in 3788) [ClassicSimilarity], result of:
0.037439212 = score(doc=3788,freq=20.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3099608 = fieldWeight in 3788, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3788)
0.25 = coord(1/4)
- Abstract
- Mit der Auslieferung der ersten Ausgabe im Januar 2003 löste der Neuerscheinungsdienst (ND) Der Deutschen Bibliothek den CIP-Dienst ab. Über die Gründe für die Neukonzeption der Dienstleistungen bezüglich der Vorankündigungen, über die Ziele und die Funktion des neuen Dienstes sowie über seine ersten Ausgaben wurde bereits im Detail berichtet". Nur soviel sei in Erinnerung gerufen: Die Deutsche Bibliothek bietet neben ihren anderen Dienstleistungen nun je einen auf die jeweilige Funktion zugeschnittenen Spezialdienst für Erwerbung bzw. Katalogisierung an: Für Erwerbungszwecke ist dies der Neuerscheinungsdienst, der die Verlegermeldungen anzeigt, die parallel dazu auch in das VLB aufgenommen werden. Die Titeldaten der Verleger werden in Der Deutschen Bibliothek mit Sachgruppen versehen, ansonsten aber nicht weiter bearbeitet. Sie enthalten keine hierarchischen Verknüpfungen und ihre Personen- oder Körperschaftseintragungen sind nicht mit den entsprechenden Normdateien PND und GKD verknüpft. Die Daten sind insoweit standardisiert, als dies von dem für die VLB-Meldungen verwendeten ONIX-Format verlangt wird und sie dem Regelwerk des VLB entsprechen, und unter bibliothekarischen Gesichtspunkten teilweise von heterogener Qualität. Für Katalogisierungszwecke werden natürlich weiterhin die Daten der Reihen A, B und C der Deutschen Nationalbibliografie für Eigenkatalogisierung angeboten, deren »autopsierte« Daten nationalbibliografisch autorisiert sind und als endgültige Katalogisate ohne weitere Korrekturen übernommen werden können. Diese beiden Dienste ergänzen sich gegenseitig und sie beide, nicht der Neuerscheinungsdienst allein, sind als funktionale Nachfolger des CIP-Dienstes anzusehen. Um die Nutzbarkeit der beiden Dienste weiter zu verbessern, hat Die Deutsche Bibliothek in den vergangenen eineinhalb Jahren eine ganze Reihe von Maßnahmen ergriffen, auf die hier näher eingegangen werden soll. Dabei sind vor allem auch Anregungen und Kritik berücksichtigt worden, die verschiedene Dienstleistungsbezieher zu den ersten Ausgaben des Neuerscheinungsdienstes dankenswerterweise geäußert haben. Die wichtigsten Einzelpunkte sind im Folgenden vorangestellt. Die statistischen Angaben beziehen sich auf das Jahr 2003, in dem insgesamt ca. 94.000 Titelmeldungen im Neuerscheinungsdienst angezeigt worden sind. - Bereits in der Deutschen Nationalbibliografie angezeigte Titel werden nochmals im ND angezeigt: Durch einen Dublettencheck werden seit März 2003 bereits in der Datenbank Der Deutschen Bibliothek vorhandene Titel erkannt und nicht mehr in den ND übernommen. - Es werden vermehrt Titel ausländischer Verlage ohne deutschen Verlagssitz angezeigt: So genannte NSG-Titel, d. h. Titel, die nicht in das Sammelgebiet Der Deutschen Bibliothek gehören, werden nicht übernommen, soweit sie als solche erkennbar sind. Dazu zählen auch alle Titel von ausländischen Verlagen ohne deutschen Verlagssitz. Zur Information sei erwähnt, dass von den 2003 im ND angezeigten Titeln 96 % eine ISBN mit der Länderkennzeichnung »3-« hatten.
-
Harvey, D.R.: Preserving digital materials (2005)
0.01
0.009359803 = product of:
0.037439212 = sum of:
0.037439212 = weight(_text_:und in 1643) [ClassicSimilarity], result of:
0.037439212 = score(doc=1643,freq=20.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3099608 = fieldWeight in 1643, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1643)
0.25 = coord(1/4)
- Classification
- AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
- Footnote
- Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
- RVK
- AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
-
Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017)
0.01
0.009359803 = product of:
0.037439212 = sum of:
0.037439212 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
0.037439212 = score(doc=4081,freq=20.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3099608 = fieldWeight in 4081, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4081)
0.25 = coord(1/4)
- Abstract
- Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
- Footnote
- Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
- Imprint
- Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002)
0.01
0.00933784 = product of:
0.03735136 = sum of:
0.03735136 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
0.03735136 = score(doc=2703,freq=26.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3092335 = fieldWeight in 2703, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2703)
0.25 = coord(1/4)
- Footnote
- Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
-
Clyde, L.A.: Weblogs and libraries (2004)
0.01
0.00933784 = product of:
0.03735136 = sum of:
0.03735136 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
0.03735136 = score(doc=5496,freq=26.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3092335 = fieldWeight in 5496, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5496)
0.25 = coord(1/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
-
Fassbender, J.: Professionelle Registererstellung : Das DNI informierte auf der Frankfurter Buchmesse 2006 (2007)
0.01
0.00933784 = product of:
0.03735136 = sum of:
0.03735136 = weight(_text_:und in 903) [ClassicSimilarity], result of:
0.03735136 = score(doc=903,freq=26.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.3092335 = fieldWeight in 903, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=903)
0.25 = coord(1/4)
- Content
- "Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab - diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur - wie immer noch weitläufig angenommen - auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften - womöglich kurz vor Ende eines Projektes - hat oft erhebliche Mängel zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen - im Gegensatz zu professionellen Indexern - kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und Online-Medien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org."
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.1, S.6
-
Weiße, A.: AG Dezimalklassifikation (AG DK) (2002)
0.01
0.009152767 = product of:
0.03661107 = sum of:
0.03661107 = weight(_text_:und in 2693) [ClassicSimilarity], result of:
0.03661107 = score(doc=2693,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30310458 = fieldWeight in 2693, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.25 = coord(1/4)
- Abstract
- Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
-
Hermes, H.-J.: Bibliothekarische Fortbildung (AG BIB) und AG Dezimalklassifikation (2003)
0.01
0.009152767 = product of:
0.03661107 = sum of:
0.03661107 = weight(_text_:und in 4653) [ClassicSimilarity], result of:
0.03661107 = score(doc=4653,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30310458 = fieldWeight in 4653, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.25 = coord(1/4)
- Content
- "Erster Tag: Bibliothekarische Fortbildung zum Thema "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Der erste Veranstaltungstag in Cottbus (Dienstag) war für die traditionelle Bibliothekarische Fortbildung organisiert. Es ging diesmal um Kosten. Das Leitreferat lautete dementsprechend: "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Und der Leitreferent Dr. Klaus Ceynowa von der Staats- und Universitätsbibliothek Göttingen gab seine ExpertenAntwort mit dem ihm zu Gebote stehenden Mittel des Controlling. Heraus kam nach Abklärung der Prämissen ein "Prozesskostensatz" von 16,57 EURO pro Dokument bei einer Bearbeitungszeit von 18 Minuten im Fachreferat. Das alles berechnet nach beispielhaften Annahmen, die in der Realität einer Einzelbibliothek sicher ähnlich ausfallen würden. Eingedenk der stetig steigenden Kosten mögen in Zweifelsfällen die "Zuständigen" (die allemal in höheren Hierarchien angesiedelt sind als wir Bibliothekare) nun entscheiden, ob der Preis für das solchermaßen seriös berechnete Produkt Sacherschließung angemessen ist. Wobei zu bedenken sein würde, dass eine Literatur, die ohne sachliche Erschließung im Online-Katalog angeboten wird, noch teurer sein könnte. Man denke nur an vertane Suchzeiten am Katalog, Erhöhung der Mitarbeiterzahlen am Informationsdienst einer Bibliothek und an den worst case: Das einschlägige Buch bleibt unentdeckt im Regal stehen. Über das Produkt Sacherschließung selbst äußerte sich Dr. Holger Flachmann von der Universitäts- und Landesbibliothek Münster (Effiziente Sacherschließung als Kernaufgabe von Bibliotheken: Perspektiven und Probleme leistungsgerechter bibliothekarischer Produkte). In einem ersten Teil wurden verschiedene Ansatzmöglichkeiten vorgestellt, um die Frage nach der Effizienz der bibliothekarischen Sacherschließung zu präzisieren. Dem schloß sich als beispielhafter Anwendungsfall die Untersuchung der Effizienz eines konkreten Erschließungsverfahrens an, und zwar der verbalen Sacherschließung nach den Regeln für den Schlagwortkatalog (RSWK). Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand der Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg, Prof. Dr. Harald Zimmermann, Universität des Saarlandes und Stefan Wolf vom Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Alle miteinander waren auf der Suche nach den zukunftsfähigen Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen.
Günter Peters legte eine PowerPoint-Datei vor, die er krankheitshalber nicht erläutern konnte. Dem bei Gruner + Jahr eingesetzten System DocCat attestierte er eine erhebliche Kompetenz. Umso bedauerlicher, dass in seiner Abwesenheit in Cottbus lediglich einige seiner Folien mit laienhaftem Kommentar vorgestellt werden konnten. Unser Trost: Vielleicht wird DocCat im März 2004 in Dortmund vom Kollegen Peters vorgeführt. Prof. Zimmermann war einer der Beteiligten bei der Entwicklung des Systems Milos/KASCADE (das bei der Jahrestagung der GfKI in München schon vorgestellt wurde). In Cottbus lieferte Zimmermann Gedanken zur automatisierten verbalen Sacherschließung, wobei er kurz das Milos/KASCADE-Verfahren streifte und an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys erinnerte. Dort "lernt" das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-48707825-2). Leider ist die Weiterentwicklung von Air/Phys aber unterblieben. Stefan Wolf vom BSZ berichtete über den anderen Weg, Sacherschließung zu erleichtern, nämlich durch Übernahme von Fremdleistungen. Aktuelle Maßnahme hierzu war die Übernahme von Erschließungsdaten sowohl klassifikatorischer als auch verbaler Art aus dem Bibliotheks-Verbund Bayern (BVB) in die Titelaufnahmen, die der Südwestverbund vorhält. Im Frühjahr 2002 verfügte der Südwestverbund über 1,6 Millionen Schlagwortketten an 1,3 Millionen Titeln. Bei der klassifikatorischen Sacherschließung durch die Regensburger Verbundklassifikation (RVK) verfügte der Verbund über lediglich 2% Erschließung. Nach der Anreicherung der Titeldaten durch Übernahme von Bayerischen Sacherschließungsdaten im Laufe des Jahres 2002 verfügten nunmehr 2.4 Millionen Titelaufnahmen über verbale Erschließung (24,9 % von derzeit 9,6 Millionen Titeln Gesamtbestand) und über 18,2 % klassifikatorische Erschließung mit RVK. Dieser Zugang an intellektueller Indexierung fließt derzeit in die Online-Kataloge der angeschlossenen Bibliotheken und eröffnet dort den Nutzern die sachlichen Zugänge zu ihren Schätzen. Abgerundet wurde die Thematik durch Berichte aus Bibliotheken und einer sachlich nahestehenden Einrichtung, so von Jiri Pika von der ETH-Bibliothek in Zürich, Kerstin Zimmerman vom Forschungszentrum Telekommunikation Wien, Horst Lindner von der Universitätsbibliothek der Brandenburgischen Technischen Universität Cottbus und Dörte Braune-Egloff von der UB der Freien Universität Berlin. Wobei Frau Braune-Egloff deutlich machte, dass die von Ihr vertretene Bibliothek zwar zentrale Aufgaben im Bereich der SWD-Kooperation im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). wahrnimmt, allerdings nicht komplett diejenigen einer "Verbundzentrale Sacherschliessung" im herkömmlichen Sinn. Die Vorträge bzw. Power-Point-Präsentationen von Cottbus werden bei Erscheinen des Mitgliederbriefes bereits auf dem Archivserver MONARCH der TU Chemnitz verfügbar sein. Die Adresse: http://archiv.tu-chemnitz.de. In der Sache ein klares Eingeständnis: Noch sind wir nicht so weit, dass sich beispielsweise eine Scan-Apparatur gleichsam in ein Buch versenkt und anschließend dem Online Katalog der besitzenden Bibliothek einen oder mehrere Erschließungsdatensätze hinzufügt. Zum Glück nicht, denn dann könnten die Bibliothekare die Reise nach Dortmund von vornherein unterlassen. So wie die Dinge liegen, gibt es noch viel Neues zu entdecken und Gedanken darüber auszutauschen. Daher schon jetzt mein Aufruf: Die Dortmunder Tagung vom Dienstag, 9. bis Donnerstag, 11. März 2004 vormerken!"
-
Rowley, J.E.; Hartley, R.: Organizing knowledge : an introduction to managing access to information (2008)
0.01
0.009152767 = product of:
0.03661107 = sum of:
0.03661107 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
0.03661107 = score(doc=3464,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30310458 = fieldWeight in 3464, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3464)
0.25 = coord(1/4)
- Footnote
- Rez. in: VOEB-Mitt. 61(2008) H.4, S.164-167 (O. Oberhauser): " Dieses nunmehr in vierter Auflage vorliegende Werk ist - vor allem in der angelsächsischen Welt - bereits zu einem Standardlehrtext für Studenten informationswissenschaftlicher Studiengänge geworden. Es zeichnete sich stets durch klaren Aufbau, gute Lesbarkeit und eine bei aller Knappheit doch relativ umfassende Themenbehandlung aus. Der im Titel verwendete Begriff organizing knowledge steht hier ja nicht für mögliche engere Bedeutungen wie etwa Wissensrepräsentation oder gar Klassifikation, sondern für den gesamten Themenbereich information retrieval bzw. information management. Die beiden ersten Auflagen verfasste die versierte und produktive Lehrbuchautorin Jennifer Rowley noch alleine;1 erst bei der dritten Auflage (2000) stand ihr John Farrow (2002 verstorben) als Mitautor zur Seite.2 Inzwischen zur Professorin am Department of Information and Communications der Manchester Metropolitan University avanciert, konnte Rowley nunmehr für die neueste Auflage den ebenfalls als Lehrbuchautor erfahrenen Richard Hartley, Professor am selben Institut und überdies dessen Vorstand, als zweiten Verfasser gewinnen. Wie die Autoren in der Einleitung ausführen, wurde das Buch gegenüber der letzten Auflage stark verändert. Die Neuerungen spiegeln insbesondere die anhaltende Verschiebung hin zu einer vernetzten und digitalen Informationswelt wider, mit allen Konsequenzen dieser Entwicklung für Dokumente, Information, Wissen, Informationsdienste und Benutzer. Neue bzw. stark überarbeitete Themenbereiche sind u.a. Ontologien und Taxonomien, Informationsverhalten, digitale Bibliotheken, Semantisches Web, Evaluation von Informationssystemen, Authentifizierung und Sicherheit, Veränderungsmanagement. Der Text wurde revidiert und auch, was diverse Standards und Normen betrifft, auf den aktuellen Stand gebracht. Der in der dritten Auflage noch separate Abschnitt über das Internet und seine Anwendungen wurde zugunsten einer Integration dieser Themen in die einzelnen Kapitel aufgelassen. Das Buch wurde neu gegliedert - es weist jetzt zwölf Kapitel auf, die in drei grosse Abschnitte gruppiert sind. Jedes Kapitel beginnt mit einer kurzen Einleitung, in der die beabsichtigten Lehr- bzw. Lernziele vorgestellt werden. Am Kapitelende gibt es jeweils eine Zusammenfassung, einige (Prüfungs-)Fragen zum Stoff sowie eine nicht allzu lange Liste der zitierten bzw. zur Vertiefung empfohlenen Literatur. Diese durchgehende Strukturierung erleichtert die Lektüre und Rezeption der Inhalte und ist m.E. für einen Lehrtext besonders vorteilhaft.
Um es kurz zu machen - so stelle ich mir ein rundum gelungenes Lehrbuch vor. Gut gegliedert und aufgebaut, bei umfassender Themenbehandlung nicht zu sehr in die Tiefe gehend, mit durchweg brauchbaren, pragmatischen Definitionen, Erläuterungen, Abbildungen und weiteren Hinweisen. Natürlich ist die hier dargestellte Informationswelt eine rein angelsächsische - RSWK, RVK, RAK, MAB & Co. existieren in dieser Umgebung einfach nicht. Damit kann man aber ganz gut leben, insbesondere, wenn es um grundlegendes Wissen geht. Und genau das wird in diesem Buch geboten - wer das hier Ausgeführte beherrscht, hat sich schon eine gute Grundlage für eine vertiefte Beschäftigung mit einzelnen Teilthemen zugelegt. Wie erwähnt, ist das Buch primär für Studenten gedacht, doch sogar Informationsspezialisten können davon profitieren, denn - Hand aufs Herz - wer kann von sich sagen, all das hier Behandelte (noch) präsent zu haben? Wer als gestandener Bibliotheksprofi das "Wagnis" unternimmt, dieses Buch durchzuarbeiten, wird daher vielleicht die eine oder andere Überraschung erleben. In formaler Hinsicht ist der Band sauber und übersichtlich gestaltet, weitgehend druckfehlerfrei, mit einem brauchbaren Register versehen und sogar in preislicher Hinsicht akzeptabel. Eine Anschaffung kann daher vorbehaltlos empfohlen werden. Neuausgabe 2018.
-
Hedden, H.: Indexing specialities : Web Sites (2007)
0.01
0.009152767 = product of:
0.03661107 = sum of:
0.03661107 = weight(_text_:und in 2146) [ClassicSimilarity], result of:
0.03661107 = score(doc=2146,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30310458 = fieldWeight in 2146, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2146)
0.25 = coord(1/4)
- Footnote
- Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
-
Batley, S.: Information architecture for information professionals (2007)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 33) [ClassicSimilarity], result of:
0.03625036 = score(doc=33,freq=48.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 33, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=33)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt. VÖB 60(2007) H.2, S.70-74 (O. Oberhauser): "In unseren Breiten ist der Begriff "information architecture" (IA) noch nicht sehr geläufig. Zwar existiert bereits das Äquivalent "Informationsarchitektur - so weist nicht nur die deutschsprachige Wikipedia einen entsprechenden Eintrag auf, sondern man findet auch im Dreiländerkatalog mittels Titelwortsuche "ungefähr 12" Treffer dazu -, doch wer aus unseren Kreisen vermag den Begriffsumfang anzugeben, den Terminus zu erläutern bzw. abzugrenzen? Haben wir es mit einem Modebegriff zu tun? Mit einem Quasi-Synonym zu bestehenden Begriffen wie Informations- oder Wissensorganisation? Wurden gar Klassifikation bzw. Thesaurus - eben erst zu "Taxonomien" umgemodelt - schon wieder einmal neu erfunden oder entdeckt? Geht man dem Terminus "information architecture" nach, so erfährt man, vielleicht mit einem gewissen Erstaunen, zum Beispiel folgendes: - der Begriff wurde bereits 1975 von dem Architekten und Graphikdesigner Richard Wurman geprägt, der sich damit auf eine bessere und benutzerfreundlichere, von architektonischen Prinzipien inspirierte Gestaltung von Informationen bezog; - der Terminus setzte sich allerdings erst mit der Publikation des Buches der aus dem bibliothekarischen Kontext stammenden Autoren Rosenfeld und Morville (1998, soeben in dritter Auflage erschienen) sowie einer ASIS&T-Tagung zur Definition von IA (2000) in breiteren Kreisen durch; - spätestens mit der Publikation von "Information architects" hat Wurman auch diesen, eine Tätigkeit bzw. einen Beruf beschreibenden Terminus etabliert; - seit 2002 besteht das "Information Architecture Institute" (IIA), eine Non-Profit-Organisation zur Entwicklung und Förderung von IA, mit bereits über 1000 Mitgliedern in 60 Staaten und einer Website in acht Sprachen; - (amerikanische) Universitäten haben bereits mit der Etablierung von IA-Studiengängen bzw. Vertiefungsrichtungen (etwa im Fach Bibliotheks- und Informationswissenschaft) begonnen.
Dem Begriff IA kann also nicht mehr ausgewichen werden. Was ist nun wirklich damit gemeint? Das IIA gibt folgende Definition: "1. Das strukturelle Design von gemeinschaftlich genutzten Informationsumgebungen. 2. Die Kunst und Wissenschaft Websites, Intranets, Online-Communitys [sic!] und Software zu strukturieren und Bezeichnungssysteme zu entwickeln, um Usability und die Auffindbarkeit von Inhalten herzustellen. 3. Eine sich herauskristallisierende Community von Praktikern, die Designund Architekturprinzipien in die digitale Landschaft einführen will." Bei Rosenfeld & Morville (Auflage 1998) heisst es - nicht unähnlich, aber doch nicht deckungsgleich -, IA sei: 1. The combination of organization, labeling, and navigation schemes within an information system. 2. The structural design of an information space to facilitate task completion and intuitive access to content. 3. The art and science of structuring and classifying web sites and intranets to help people find and manage information. 4. An emerging discipline and community of practice focusing on bringing principles of design and architecture to the digital landscape. IA hat aber wohl nicht nur mit dem Design von Websites zu tun. Sue Batley, deren Buch sich im Gegensatz zu jenem der beiden amerikanischen Autoren nicht an Webdesigner, sondern an Informationsspezialisten wendet, betont im ersten Kapitel, dass es gegenwärtig (noch) keine allgemeingültige Definition für IA gebe; zuviel sei noch in Entwicklung bzw. im Fluss. Sie sieht, mit Blick auf die Zielgruppe der Informationsspezialisten, IA als eine Verbindung der Kernelemente des Informationsmanagements mit den Prinzipien des benutzerzentrierten Designs. Die Verbesserung von Auffindbarkeit ("increasing findability") gilt ihr hier als die wesentliche Aktivität. Als zentrale Begriffe in diesem Zusammenhang stellt Batley daher auch "indexes and indexing", "classification", "cataloguing" sowie "user-centered design" (von Informationssystemen) vor.
Im zweiten Kapitel, das ich für besonders lesenswert halte, beschäftigt sich die Autorin mit vier als "preliminaries" bezeichneten Stadien im Prozess des Designs von Informationssystemen: "information needs analysis" (welche Informationen werden benötigt), "task analysis" (für welche Aufgaben werden die Informationen benötigt), "resource analysis" (welche persönliche Kompetenzen bzw. praktischen Fähigkeiten stehen den präsumtiven Benutzern bereits zur Verfügung), "user modelling" (Segmentierung bzw. Kategorisierung der Anwender). In diesem Zusammenhang werden auch Begriffe wie "information audit" oder "needs assessment" erläutert sowie methodische Frage angerissen; zudem wird eine kleine Fallstudie als Beispiel präsentiert. Das folgende Kapitel ("Searching and finding") konzentriert sich auf die Informationssuche bzw. auf Retrievalaspekte. Dabei werden die Strategien des Suchens und Browsings im allgemeinen wie auch im besonderen (z.B. Boolesche Suchformulierungen, bibliothekarische Klassifikationen und Webtaxonomien) vorgestellt. Daran schliesst sich ein Kapitel über Dokumente und Dokumentbeschreibungen, in dem auf formale wie auch auf inhaltliche Aspekte der Dokumente (Metadaten vs. Thesauri) eingegangen wird. Kapitel 5 hat dann wieder einen höheren Neuigkeitswert für den bibliothekarischen Leser, da es hier um "interface and display design" geht. Begriffe wie Mensch-Maschine-Schnittstelle und mentale Modelle der Interaktion mit Computern (Metaphern) werden hier ebenso vorgestellt wie Interaktionsstile (z.B. Kommandosprachen vs. Formulare, Web-Kataloge) und grundsätzliche Designprinzipien (Bildschirmlayout, Navigation, Graphik etc.) Das darauf folgende kurze Kapitel "Management and maintenance" thematisiert Aspekte wie Content Management sowie organisatorische Fragen. In "Evaluation", dem abschliessenden Kapitel, geht es schliesslich um die Abschätzung von Wert und Qualität der durchgeführten "Informationsarchitektur", also um Wirksamkeit und Leistungsfähigkeit eines Systems (gemessen z.B. mittels bekannter Parameter wie Precision und Recall), aber auch um die damit erzielte Benutzerzufriedenheit.
Wie aus dieser kurzen Beschreibung ersichtlich wird, wartet das Buch mit zahlreichen interessanten Themen auf - oder reisst diese eben nur kurz an. Vielfach hätte man sich auch von einer Einführung mehr Detailreichtum erwartet, wobei natürlich nicht bekannt ist, welche Vorgaben die Autorin im Hinblick auf den Umfang des Buches zu beachten hatte. Meinem persönlichen Geschmack nach hätte der Band jedenfalls ruhig doppelt so dick sein dürfen, um mehr als nur einen kurzen Einstieg bieten zu können. Immerhin, so sei konzediert, enthält aber jedes Kapitel eine gute Auswahl an Hinweisen auf weiterführende Literatur. Wie auch schon ihrem vor zwei Jahren erschienenen Klassifikationsbuch9 ist Batley insgesamt eine aufgelockerte und gut lesbare Darstellung gelungen. Die eingangs gestellte Frage - Modebegriff? Quasi-Synonym? - beantwortet das Buch indes nicht wirklich. Die Verbindung der Kernelemente des Informationsmanagements mit den Prinzipien des benutzerzentrierten Designs erscheint mir eigentlich als nichts wesentlich Neues - hätte Informationsdesign nicht schon immer so sein sollen? Gerade nach der Lektüre des vorliegenden Buches werde ich den Verdacht nicht los, dass der Neologismus "Informationsarchitektur" mehr schick als inhaltsschwer ist. Man mag darin vielleicht den Versuch sehen, Vorhandenes aus einer anderen Perspektive zu betrachten oder auch das Bestreben, Inhalte und Themen aus dem Kernbereich der Bibliotheks- und Informationspraxis für Interessenten ohne einschlägige Vorbildung schmackhaft und/oder verständlich aufzubereiten. Die Ambition, dies zu einer Tätigkeits- oder Berufsbezeichnung ("information architect") hochzustilisieren, kommt mir wenigstens so fragwürdig vor wie das seinerzeitige, unselige und immer noch nicht vollständig überwundene Auseinanderdividieren von Bibliothekaren und Dokumentaren."
-
Änderungen und redaktionelle Korrekturen : Die 4. RSWK-Ergänzungslieferung (2007)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 1667) [ClassicSimilarity], result of:
0.03625036 = score(doc=1667,freq=12.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 1667, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1667)
0.25 = coord(1/4)
- Content
- "Die Ergänzungslieferung steht in elektronischer Form kostenfrei zur Verfügung: www.d-nb. de/standardisierung/regelwerke/ afs_dok_reg_entw.htm - urn: nbn:de:1111-20040721213 - http://nbn-resolving.de/urn/re solver.pl?urn=urn:nbn:de:111120040721213. Die Ergänzungslieferung enthält unter anderem Änderungen an Paragraf 18,3 (hier wurde der Schwerpunkt der Vergabe von Sprachencodes auf Werke bestimmter Wissensgebiete verschoben), Paragraf 405,3 (Ergänzung der als Sachschlagwort zu behandelnden Geschichtskomposita um »Formgeschichte«) sowie diverse redaktionelle Korrekturen (unter anderem Anpassung von Text und Beispielen an Regelwerksänderungen, die in der 3. Ergänzungslieferung 2005 der RSWK veröffentlicht wurden, und Verbesserung von Schreibfehlern). Die Expertengruppe RSWK/ SWD hat die Änderungen an den RSWK auf ihrer Sitzung am 10. Mai 2006 beschlossen und anschließend dem Standardisierungsausschuss vorgelegt. Der Standardisierungsausschuss hat in einem Umlaufverfahren im Februar 2007 einer Veröffentlichung und Inkraftsetzung zugestimmt. Die Papierausgabe der 4. Ergänzungslieferung 2007 zur 3. Auflage des Grundwerks RSWK 1998 kann zum Preis von 13 Euro (zuzüglich Porto) bezogen werden über: Deutsche Nationalbibliothek, Zentrale bibliografische Dienstleistungen, Adickesallee 1, 60322 Frankfurt am Main, Fax: 069/1525-1636, E-Mail: c.jun [email protected]. Das Grundwerk sowie die 1., 2. und 3. Ergänzungslieferung zur 3. Auflage der »Regeln für den Schlagwortkatalog« sind ebenfalls über die Deutsche Nationalbibliothek zu beziehen."
-
Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
0.03625036 = score(doc=1680,freq=48.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 1680, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1680)
0.25 = coord(1/4)
- Content
- "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
-
FIZ Karlsruhe: Portal erfasst Informatik-Wissen aus der ganzen Welt (2007)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
0.03625036 = score(doc=2283,freq=12.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 2283, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2283)
0.25 = coord(1/4)
- Content
- "Web-Portale werden zu immer besseren Fachinformationsquellen. Mit »io-port.net« (www. io-port.net) gibt es für die Informatik seit kurzem ein Portal, in dem moderne semantische Softwarewerkzeuge die Suche nach internationalen Veröffentlichungen unterstützen und bei der Verwaltung der persönlichen Fachbibliothek helfen. Bereits jetzt sind mehr als zwei Millionen Zeitschriftenartikel, Konferenzbeiträge, Dissertationen oder technische Berichte zur Informatik und zu verwandten Forschungsgebieten über io-port.net zentral unter einem Web-Zugang verfügbar. Die Nutzung des io-port. net Basisdienstes ist kostenlos. Mehrwertdienste, von der erweiterten Suche (mit Wortstammreduktion, Trunkierung und Verknüpfung) bis hin zur Nutzung der semantischen Werkzeuge, die beispielsweise Vorschläge für Suchbegriffe machen oder Fachpublikationen dem persönlichen Arbeitskontext des Nutzers zuordnen, sind kostenpflichtig. Mitglieder der Gesellschaft für Informatik (GI) können die Mehrwertlizenz zu einem Sonderpreis von 50 Euro pro Jahr erwerben. Die reguläre Einzelplatzlizenz kostet 125 Euro. io-port.net erfasst internationale wissenschaftliche Fachpublikationen und verknüpft die bibliografischen Angaben mit zahlreichen weiteren Web-Informationsquellen, zum Beispiel mit den Homepages von Autoren, Instituten, Bibliotheken und Verlagen, mit Volltextlieferdiensten, Publikationslisten von Autoren und anderen interessanten weiterführenden Quellen."
-
Meadow, C.T.: Text information retrieval systems (1992)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 2519) [ClassicSimilarity], result of:
0.03625036 = score(doc=2519,freq=12.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 2519, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2519)
0.25 = coord(1/4)
- Classification
- AN 96500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Informationsbedarf
ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
- RVK
- AN 96500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Informationsbedarf
ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
-
Buckland, M.K.: Emanuel Goldberg and his knowledge machine : information, invention, and political forces (2006)
0.01
0.00906259 = product of:
0.03625036 = sum of:
0.03625036 = weight(_text_:und in 2991) [ClassicSimilarity], result of:
0.03625036 = score(doc=2991,freq=12.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.30011827 = fieldWeight in 2991, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2991)
0.25 = coord(1/4)
- BK
- 06.01 / Geschichte des Informations- und Dokumentationswesens
02.01 / Geschichte der Wissenschaft und Kultur
- Classification
- 06.01 / Geschichte des Informations- und Dokumentationswesens
02.01 / Geschichte der Wissenschaft und Kultur
- RSWK
- Information und Dokumentation / Informationstechnik / Geschichte
- Subject
- Information und Dokumentation / Informationstechnik / Geschichte