-
Diepeveen, C.; Fassbender, J.; Robertson, M.: Indexing software (2007)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
0.038355537 = score(doc=1742,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 1742, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1742)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag handelt von unterschiedlichen Arten verfügbarer Software zur Erzeugung von Registern und untersucht, ob diese dazu benutzt werden können, ein Register nach internationalen Normen zu erstellen. Da oft behauptet wird, dass die Registererstellung mit einem Computer und ohne Einsatz des Menschen durchführbar sei, untersuchen die Autoren, weshalb Indexieren eine Aktivität des Menschen sein muss und weshalb eine automatische Registererstellung kein zufriedenstellendes Register hervorbringen kann. Automatische Registererstellung kann bestenfalls einen Ausgangspunkt zur weiteren Indexierung liefern. Anschließend wird die Möglichkeit der Registererstellung mit allgemein verfügbarer Software untersucht. Dies kann akzeptable Register hervorbringen, wenngleich oft nur auf mühsame Weise. Für den professionellen Indexierer stellt daher spezielle Indexing Software die bevorzugte Option dar. Die drei am meisten benutzten speziellen Indexierungsprogramme werden kurz bewertet. Ausrichtung und Aussehen dieser Programme sind sehr unterschiedlich, aber die Merkmale und Output-Optionen sind sehr ähnlich. Website Indexing ist ein relativ neues Spezialgebiet innerhalb der Disziplin des Indexierens. Zwei Programme - eine Freeware und ein kommerzielles - zur Erstellung von Registern von Websites werden erörtert. Das Fazit insgesamt ist, dass das Registermachen eine Aktivität ist, die intellektuellen Input des Menschen benötigt. Software kann den Input hervorragend verbessern, aber nicht den Anteil des Menschen daran ersetzen.
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.8, S.413-420
-
BIBFRAME Model Overview (2013)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 1763) [ClassicSimilarity], result of:
0.038355537 = score(doc=1763,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 1763, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1763)
0.25 = coord(1/4)
- Content
- Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
-
Information literacy : infiltrating the agenda, challenging minds (2011)
0.01
0.009588884 = product of:
0.038355537 = sum of:
0.038355537 = weight(_text_:und in 2028) [ClassicSimilarity], result of:
0.038355537 = score(doc=2028,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32416478 = fieldWeight in 2028, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2028)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt VÖB 66(2013) H.2, S.396-388 (K. Niedermair): "Das Thema des vorliegenden Sammelbandes ist Informationskompetenz, sein Ziel ist (so ließe sich der Untertitel paraphrasieren) zweifach. Einerseits zu berichten über den state of art der Vermittlung von Informationskompetenz im tertiären Bildungssektor in Großbritannien, detaillierte Einblicke zu geben in Initiativen, Projekte und best practices. Andererseits theoretische Grundlagen und Perspektiven zu formulieren für künftige Projektaktivitäten und -anträge. Denn - das ist die Kernaussage des Buches - im Kontext der Informationsgesellschaft und des sich verändernden Bildungs- und Hochschulwesens erfordert die Vermittlung von Informationskompetenz neue Strategien und Konzepte, in inhaltlicher Hinsicht, in politischer, aber auch was didaktische Herangehensweisen betrifft. ... Das Buch greift die Herausforderungen auf, die für die Vermittlung von lnformationskompetenz angesichts der weltweiten Veränderungen im Hochschulwesen entstehen. Das Buch setzt auf neue Lehr-/Lernmethoden, es mahnt im Sinne eines "call to the arms" (S. 10) Initiativen und Projekte ein, denen man Aufmerksamkeit schenken sollte, um die Kernaufgabe der Bibliothek, lnformationskompetenz zu vermitteln, im 21. Jahrhundert neu gestalten zu können. Dazu ein abschließendes Zitat: "We cannot predict the future but we believe that defining the 21st century librarian is about being a teacher and educator not a custodian and keeper of the tomes; it is about, through teaching, turning information into knowledge." (S. 12)"
-
Barabási, A.-L.: Linked: The New Science of Networks (2002)
0.01
0.009492511 = product of:
0.037970044 = sum of:
0.037970044 = weight(_text_:und in 3015) [ClassicSimilarity], result of:
0.037970044 = score(doc=3015,freq=28.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32090676 = fieldWeight in 3015, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3015)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
-
Köhler, W.G.: Challenges of efficient and compliant data processing : assuring legal access to data (2024)
0.01
0.009492511 = product of:
0.037970044 = sum of:
0.037970044 = weight(_text_:und in 2241) [ClassicSimilarity], result of:
0.037970044 = score(doc=2241,freq=28.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.32090676 = fieldWeight in 2241, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2241)
0.25 = coord(1/4)
- Abstract
- Die fortschreitende Digitalisierung verändert die Gesellschaft und hat weitreichende Auswirkungen auf Menschen und Unternehmen. Grundlegend für diese Veränderungen sind die neuen technologischen Möglichkeiten, Daten in immer größerem Umfang und für vielfältige neue Zwecke zu verarbeiten. Von besonderer Bedeutung ist dabei die Verfügbarkeit großer und qualitativ hochwertiger Datensätze, insbesondere auf Basis personenbezogener Daten. Sie werden entweder zur Verbesserung der Produktivität, Qualität und Individualität von Produkten und Dienstleistungen oder gar zur Entwicklung neuartiger Dienstleistungen verwendet. Heute wird das Nutzerverhalten, trotz weltweit steigender gesetzlicher Anforderungen an den Schutz personenbezogener Daten, aktiver und umfassender verfolgt als je zuvor. Dies wirft vermehrt ethische, moralische und gesellschaftliche Fragen auf, die nicht zuletzt durch populäre Fälle des Datenmissbrauchs in den Vordergrund der politischen Debatte gerückt sind. Angesichts dieses Diskurses und der gesetzlichen Anforderungen muss heutiges Datenmanagement drei Bedingungen erfüllen: Erstens die Legalität bzw. Gesetzeskonformität der Nutzung, zweitens die ethische Legitimität. Drittens sollte die Datennutzung aus betriebswirtschaftlicher Sicht wertschöpfend sein. Im Rahmen dieser Bedingungen verfolgt die vorliegende kumulative Dissertation vier Forschungsziele mit dem Fokus, ein besseres Verständnis (1) der Herausforderungen bei der Umsetzung von Gesetzen zum Schutz von Privatsphäre, (2) der Faktoren, die die Bereitschaft der Kunden zur Weitergabe persönlicher Daten beeinflussen, (3) der Rolle des Datenschutzes für das digitale Unternehmertum und (4) der interdisziplinären wissenschaftlichen Bedeutung, deren Entwicklung und Zusammenhänge zu erlangen.
- Content
- Dissertation zur Erlangung des Doktorgrades (doctor rerum politicarum) an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam. Deutscher Titel: Herausforderungen einer effizienten und gesetzeskonformen Datenverarbeitung :Sicherstellung des rechtmäßigen Zugangs zu Daten. urn:nbn:de:kobv:517-opus4-627843. https://doi.org/10.25932/publishup-62784.
- Imprint
- Potsdam : Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität
-
Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003)
0.01
0.00939515 = product of:
0.0375806 = sum of:
0.0375806 = weight(_text_:und in 4198) [ClassicSimilarity], result of:
0.0375806 = score(doc=4198,freq=84.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.31761533 = fieldWeight in 4198, product of:
9.165152 = tf(freq=84.0), with freq of:
84.0 = termFreq=84.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4198)
0.25 = coord(1/4)
- Footnote
- Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
-
Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005)
0.01
0.009282629 = product of:
0.037130516 = sum of:
0.037130516 = weight(_text_:und in 4675) [ClassicSimilarity], result of:
0.037130516 = score(doc=4675,freq=82.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.31381142 = fieldWeight in 4675, product of:
9.055386 = tf(freq=82.0), with freq of:
82.0 = termFreq=82.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4675)
0.25 = coord(1/4)
- Content
- "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
-
Lipow, A.G.: ¬The virtual reference librarian's handbook (2003)
0.01
0.00924008 = product of:
0.03696032 = sum of:
0.03696032 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
0.03696032 = score(doc=4992,freq=52.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.312373 = fieldWeight in 4992, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4992)
0.25 = coord(1/4)
- Footnote
- Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
-
Stafford, T.; Webb, M.: Mind hacks : tips & tools for using your brain (2005)
0.01
0.009225853 = product of:
0.03690341 = sum of:
0.03690341 = weight(_text_:und in 135) [ClassicSimilarity], result of:
0.03690341 = score(doc=135,freq=36.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.31189203 = fieldWeight in 135, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=135)
0.25 = coord(1/4)
- Content
- Mit 2 Abb. zu folgendem Beobachtungsexperiment: Eines der beiden Gesichter scheint männlich zu sein, das andere weiblich. Deckt man die linke Hälfte beider Gesichter mit einem Stück Papier zu, so verkehrt sich diese Zuweisung in ihr Gegenteil! Warum? Für die Wahrnehmung - zum Beispiel - des Geschlechts dominiert die rechte Hirnhälfte. Die aber verarbeitet vorrangig Informationen aus der linken Hälfte des Gesichtsfeldes. Beide Bilder sind zusammengesetzt: aus einer männlichen linken und einer weiblichen rechten Gesichtshälfte, und umgekehrt.
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2005, H.12, S.106-107 (M. Jäger): "Das Buch gehört in eine Reihe mit »eBay Hacks«, »Google Hacks« und »Mac OS X Hacks« aus demselben Verlag: Anleitungen, ein System etwas anders zu nutzen, als sein Anbieter das vorgesehen hat. Und doch fällt es aus dem Rahmen. Kein Computer oder Betriebssystem wird gehackt, sondern das Gehirn. Wie die anderen »Hack«Bücher ist es nicht als Sachbuch im herkömmlichen Sinn angelegt, sondern als Sammlung von hundert Experimenten, »Hacks«, aus zehn verschiedenen Bereichen. Gezeigt werden erstaunliche Selbstversuche, unter anderem zum visuellen System, zu Aufmerksamkeitssteuerung, Hören und Sprache, Bewegung, Erinnerung, Schlussfolgerung und Gestaltwahrnehmung. Jedes neurologische Phänomen wird zunächst allgemein erläutert; es folgen die Beschreibung eines zugehörigen Experiments und eine kurze Erklärung sowie Angaben zu weiterführenden Texten und Internetlinks. Tom Stafford, Psychologe an der Universität Sheffield (England), und Matt Webb, Ingenieur, Designer und freischaffender Autor, unter anderem für die BBC, wurden von Spezialisten auf dem jeweiligen Gebiet unterstützt. Die einst beliebte Metapher vom Gehirn als Computer ist in der ursprünglichen Form nicht mehr haltbar, wie auch die Autoren im Vorwort einräumen. Dafür haben sich in den letzten Jahrzehnten zu viele und wesentliche Differenzen offenbart, etwa was Speicherung und Verarbeitung von Informationen angeht. Dennoch gibt es hinreichend viele Parallelen, um die Verwendung des Begriffs »Hack« zu rechtfertigen.
Natürlich sind »Mind Hacks« keine Schwachstellen oder geheimen Kniffe, mit denen man eine vom »Entwickler« so nicht beabsichtigte Funktion des Gehirns freischalten könnte. Es gibt ja auch keinen Systemadministrator, bei dem man sich über die Fehlprogrammierung beschweren könnte - zumindest zu Lebzeiten nicht. Vielmehr offenbaren die Hacks die buchstäblich eigenwillige Funktionsweise des Gehirns: neuronal festgelegte Annahmen über die Umwelt, die dem »Ich« ihrer Natur nach so nah sind, dass sie nicht bewusst werden, wie eine Brille, die man nicht mehr wahrnimmt. In diesem Sinn sind wir meist Gefangene der Struktur unseres neuronalen Netzes. Stafford und Webb räumen mit der Vorstellung auf, man nutze nur zehn Prozent des Gehirns (Hack #6), und erklären viele alltägliche Phänomene, etwa, warum man sich nicht selbst kitzeln kann (Hack #65), warum man trotz schlechter Verbindung am Telefon immer noch die vertraute Stimme eines Freundes erkennen kann (Hack #33) oder warum der Klang von Worten neben dem Inhalt auch Bedeutung, etwa zur Form des bezeichneten Gegenstandes, vermittelt (Hack #50). Interessant auch Hack #67. Dort wird beschrieben, dass Gegenstände förmlich danach verlangen, auf eine bestimmte Art und Wei- se benutzt zu werden. Bereits durch die Form des Griffs sagt die Tür, dass sie gedrückt werden will; jedenfalls neigen die Leute dazu, das zu tun, auch wenn »Ziehen« draufsteht. Eine Notausgangstür sollte solche Missverständnisse besser nicht aufkommen lassen. Hack #99 schließlich weist auf die Bedeutung von verbaler Psychohygiene hin. Versuchspersonen, die Texte lasen, in die negative Begriffe eingeflochten waren, agierten anschließend in einer sozialen Versuchssituation deutlich aggressiver. Vielleicht gilt ja auch der Umkehrschluss, und Sie sollten dieses Buch entspannt im Sonnenschein auf einer Blumenwiese oder unter einem Regenbogen lesen, denn es birgt echte Schätze. Ein kurzweiliges Buch, das nicht in einem Zug gelesen werden muss und das zum Nachdenken über das Selbstverständnis des Lesers einlädt. Die vielen einfachen Experimente, die auf Alltagserfahrungen aufbauen, sorgen auch auf einer Party für Erstaunen, Belustigung und Gespräche jenseits des üblichen Smalltalks.
-
Bruner, J.: From communication to language (1975)
0.01
0.009168726 = product of:
0.036674906 = sum of:
0.036674906 = weight(_text_:und in 2635) [ClassicSimilarity], result of:
0.036674906 = score(doc=2635,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3099608 = fieldWeight in 2635, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2635)
0.25 = coord(1/4)
- Abstract
- Bruner war der erste Erforscher des Spracherwerbs von Kindern, der Wittgensteins Problem zu würdigen wußte und eine Antwort darauf vorschlug. Wittgensteins allgemeinem Ansatz folgend, behauptete Bruner, daß das Kind den konventionellen Gebrauch eines sprachlichen Symbols dadurch erwirbt, daß es lernt, an einer Interaktionsform (Lebensform, Szene gemeinsamer Aufmerksamkeit) teilzunehmen, die es zunächst nichtsprachlich versteht, so daß die Sprache des Erwachsenen in geteilten Erfahrungen verankert werden kann, deren soziale Bedeutung es schon begreift. Eine Schlüsselkomponente dieses Prozesses ist zunächst ein Kind, das Erwachsene als intentionale Wesen auffassen kann, so daß es in bestimmten Kontexten seine Aufmerksamkeit mit ihnen teilen kann. Eine andere Komponente ist jedoch die bereits existierende, äußere soziale Welt, in der das Kind lebt. Um Sprache zu erwerben, muß das Kind in einer Welt leben, die strukturierte soziale Tätigkeiten aufweist, die es verstehen kann, so wie unser hypothetischer Besucher Ungarns das Kaufen von Fahrkarten und das Reisen mit Zügen verstand. Für Kinder bedeutet das häufig die Wiederkehr derselben routinemäßigen, allgemeinen Aktivität, so daß sie erkennen können, wie diese Aktivität aufgebaut ist und wie die verschiedenen sozialen Rollen in ihr funktionieren. Wenn wir am Spracherwerb interessiert sind, muß der Erwachsene außerdem ein neues sprachliches Symbol auf eine solche Weise verwenden, die das Kind als relevant für die gemeinsame Tätigkeit erkennen kann (nämlich im Gegensatz zur unvermittelten Ansprache des Ungarn auf dem Bahnhof). Wenn ein Kind in eine Welt geboren werden würde, in der dieselbe Art von Ereignis nie wiederkehrte, derselbe Gegenstand nie zweimal erschiene und Erwachsene nie dieselben Ausdrücke im selben Kontext verwendeten, dann würde im allgemeinen schwer zu sehen sein, wie dieses Kind eine natürliche Sprache erwerben könnte, welche kognitiven Fähigkeiten es auch immer haben möge. Eine Reihe von Untersuchungen hat gezeigt, daß Kinder nach ersten Fortschritten beim Spracherwerb neue Wörter am besten in Szenen gemeinsamer Aufmerksamkeit lernen. Oft handelt es sich dabei um solche, die in ihrer täglichen Erfahrung wiederkehren, wie Baden, Füttern, Windelwechseln, Vorlesen und Autofahren. Diese Tätigkeiten sind in vielen Hinsichten analog zu dem Szenario des Fahrkartenkaufs auf einem Bahnhof, insofern das Kind seine eigenen und die Ziele des Erwachsenen in der jeweiligen Situation versteht, was ihm ermöglicht, die Relevanz des Sprachverhaltens des Erwachsenen für diese Ziele zu erschließen. So stellten Tomasello und Todd fest, daß Kinder, die mit ihren Müttern längere Zeit bei Tätigkeiten gemeinsamer Aufmerksamkeit im Alter zwischen zwölf und achtzehn Monaten verbrachten, mit achtzehn Monaten ein größeres Vokabular hatten. Bei der Sprachverwendung Erwachsener innerhalb dieser Szenen gemeinsamer Aufmerksamkeit fanden Tomasello und Farrar sowohl korrelative als auch experimentelle Belege für die Hypothese, daß Mütter, die Sprache beim Versuch verwendeten, der Aufmerksamkeit ihrer Kinder zu folgen (d. h. über einen Gegenstand zu sprechen, der schon im Brennpunkt des Interesses und der Aufmerksamkeit des Kindes stand), Kinder mit einem größeren Vokabular hatten als Mütter, die Sprache beim Versuch verwendeten, die Aufmerksamkeit des Kindes auf etwas Neues zu lenken.
-
Rinn, R.; Werner, C.: ¬Der Neuerscheinungsdienst Der Deutschen Bibliothek : Eine Bilanz nach eineinhalb Jahren (2004)
0.01
0.009168726 = product of:
0.036674906 = sum of:
0.036674906 = weight(_text_:und in 3788) [ClassicSimilarity], result of:
0.036674906 = score(doc=3788,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3099608 = fieldWeight in 3788, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3788)
0.25 = coord(1/4)
- Abstract
- Mit der Auslieferung der ersten Ausgabe im Januar 2003 löste der Neuerscheinungsdienst (ND) Der Deutschen Bibliothek den CIP-Dienst ab. Über die Gründe für die Neukonzeption der Dienstleistungen bezüglich der Vorankündigungen, über die Ziele und die Funktion des neuen Dienstes sowie über seine ersten Ausgaben wurde bereits im Detail berichtet". Nur soviel sei in Erinnerung gerufen: Die Deutsche Bibliothek bietet neben ihren anderen Dienstleistungen nun je einen auf die jeweilige Funktion zugeschnittenen Spezialdienst für Erwerbung bzw. Katalogisierung an: Für Erwerbungszwecke ist dies der Neuerscheinungsdienst, der die Verlegermeldungen anzeigt, die parallel dazu auch in das VLB aufgenommen werden. Die Titeldaten der Verleger werden in Der Deutschen Bibliothek mit Sachgruppen versehen, ansonsten aber nicht weiter bearbeitet. Sie enthalten keine hierarchischen Verknüpfungen und ihre Personen- oder Körperschaftseintragungen sind nicht mit den entsprechenden Normdateien PND und GKD verknüpft. Die Daten sind insoweit standardisiert, als dies von dem für die VLB-Meldungen verwendeten ONIX-Format verlangt wird und sie dem Regelwerk des VLB entsprechen, und unter bibliothekarischen Gesichtspunkten teilweise von heterogener Qualität. Für Katalogisierungszwecke werden natürlich weiterhin die Daten der Reihen A, B und C der Deutschen Nationalbibliografie für Eigenkatalogisierung angeboten, deren »autopsierte« Daten nationalbibliografisch autorisiert sind und als endgültige Katalogisate ohne weitere Korrekturen übernommen werden können. Diese beiden Dienste ergänzen sich gegenseitig und sie beide, nicht der Neuerscheinungsdienst allein, sind als funktionale Nachfolger des CIP-Dienstes anzusehen. Um die Nutzbarkeit der beiden Dienste weiter zu verbessern, hat Die Deutsche Bibliothek in den vergangenen eineinhalb Jahren eine ganze Reihe von Maßnahmen ergriffen, auf die hier näher eingegangen werden soll. Dabei sind vor allem auch Anregungen und Kritik berücksichtigt worden, die verschiedene Dienstleistungsbezieher zu den ersten Ausgaben des Neuerscheinungsdienstes dankenswerterweise geäußert haben. Die wichtigsten Einzelpunkte sind im Folgenden vorangestellt. Die statistischen Angaben beziehen sich auf das Jahr 2003, in dem insgesamt ca. 94.000 Titelmeldungen im Neuerscheinungsdienst angezeigt worden sind. - Bereits in der Deutschen Nationalbibliografie angezeigte Titel werden nochmals im ND angezeigt: Durch einen Dublettencheck werden seit März 2003 bereits in der Datenbank Der Deutschen Bibliothek vorhandene Titel erkannt und nicht mehr in den ND übernommen. - Es werden vermehrt Titel ausländischer Verlage ohne deutschen Verlagssitz angezeigt: So genannte NSG-Titel, d. h. Titel, die nicht in das Sammelgebiet Der Deutschen Bibliothek gehören, werden nicht übernommen, soweit sie als solche erkennbar sind. Dazu zählen auch alle Titel von ausländischen Verlagen ohne deutschen Verlagssitz. Zur Information sei erwähnt, dass von den 2003 im ND angezeigten Titeln 96 % eine ISBN mit der Länderkennzeichnung »3-« hatten.
-
Harvey, D.R.: Preserving digital materials (2005)
0.01
0.009168726 = product of:
0.036674906 = sum of:
0.036674906 = weight(_text_:und in 1643) [ClassicSimilarity], result of:
0.036674906 = score(doc=1643,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3099608 = fieldWeight in 1643, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1643)
0.25 = coord(1/4)
- Classification
- AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
- Footnote
- Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
- RVK
- AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
-
Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017)
0.01
0.009168726 = product of:
0.036674906 = sum of:
0.036674906 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
0.036674906 = score(doc=4081,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3099608 = fieldWeight in 4081, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4081)
0.25 = coord(1/4)
- Abstract
- Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
- Footnote
- Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
- Imprint
- Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002)
0.01
0.009147212 = product of:
0.036588848 = sum of:
0.036588848 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
0.036588848 = score(doc=2703,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3092335 = fieldWeight in 2703, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2703)
0.25 = coord(1/4)
- Footnote
- Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
-
Clyde, L.A.: Weblogs and libraries (2004)
0.01
0.009147212 = product of:
0.036588848 = sum of:
0.036588848 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
0.036588848 = score(doc=5496,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3092335 = fieldWeight in 5496, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5496)
0.25 = coord(1/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
-
Fassbender, J.: Professionelle Registererstellung : Das DNI informierte auf der Frankfurter Buchmesse 2006 (2007)
0.01
0.009147212 = product of:
0.036588848 = sum of:
0.036588848 = weight(_text_:und in 903) [ClassicSimilarity], result of:
0.036588848 = score(doc=903,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3092335 = fieldWeight in 903, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=903)
0.25 = coord(1/4)
- Content
- "Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab - diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur - wie immer noch weitläufig angenommen - auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften - womöglich kurz vor Ende eines Projektes - hat oft erhebliche Mängel zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen - im Gegensatz zu professionellen Indexern - kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und Online-Medien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org."
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.1, S.6
-
Weiße, A.: AG Dezimalklassifikation (AG DK) (2002)
0.01
0.008965917 = product of:
0.035863668 = sum of:
0.035863668 = weight(_text_:und in 2693) [ClassicSimilarity], result of:
0.035863668 = score(doc=2693,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.30310458 = fieldWeight in 2693, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.25 = coord(1/4)
- Abstract
- Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
-
Hermes, H.-J.: Bibliothekarische Fortbildung (AG BIB) und AG Dezimalklassifikation (2003)
0.01
0.008965917 = product of:
0.035863668 = sum of:
0.035863668 = weight(_text_:und in 4653) [ClassicSimilarity], result of:
0.035863668 = score(doc=4653,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.30310458 = fieldWeight in 4653, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.25 = coord(1/4)
- Content
- "Erster Tag: Bibliothekarische Fortbildung zum Thema "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Der erste Veranstaltungstag in Cottbus (Dienstag) war für die traditionelle Bibliothekarische Fortbildung organisiert. Es ging diesmal um Kosten. Das Leitreferat lautete dementsprechend: "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Und der Leitreferent Dr. Klaus Ceynowa von der Staats- und Universitätsbibliothek Göttingen gab seine ExpertenAntwort mit dem ihm zu Gebote stehenden Mittel des Controlling. Heraus kam nach Abklärung der Prämissen ein "Prozesskostensatz" von 16,57 EURO pro Dokument bei einer Bearbeitungszeit von 18 Minuten im Fachreferat. Das alles berechnet nach beispielhaften Annahmen, die in der Realität einer Einzelbibliothek sicher ähnlich ausfallen würden. Eingedenk der stetig steigenden Kosten mögen in Zweifelsfällen die "Zuständigen" (die allemal in höheren Hierarchien angesiedelt sind als wir Bibliothekare) nun entscheiden, ob der Preis für das solchermaßen seriös berechnete Produkt Sacherschließung angemessen ist. Wobei zu bedenken sein würde, dass eine Literatur, die ohne sachliche Erschließung im Online-Katalog angeboten wird, noch teurer sein könnte. Man denke nur an vertane Suchzeiten am Katalog, Erhöhung der Mitarbeiterzahlen am Informationsdienst einer Bibliothek und an den worst case: Das einschlägige Buch bleibt unentdeckt im Regal stehen. Über das Produkt Sacherschließung selbst äußerte sich Dr. Holger Flachmann von der Universitäts- und Landesbibliothek Münster (Effiziente Sacherschließung als Kernaufgabe von Bibliotheken: Perspektiven und Probleme leistungsgerechter bibliothekarischer Produkte). In einem ersten Teil wurden verschiedene Ansatzmöglichkeiten vorgestellt, um die Frage nach der Effizienz der bibliothekarischen Sacherschließung zu präzisieren. Dem schloß sich als beispielhafter Anwendungsfall die Untersuchung der Effizienz eines konkreten Erschließungsverfahrens an, und zwar der verbalen Sacherschließung nach den Regeln für den Schlagwortkatalog (RSWK). Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand der Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg, Prof. Dr. Harald Zimmermann, Universität des Saarlandes und Stefan Wolf vom Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Alle miteinander waren auf der Suche nach den zukunftsfähigen Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen.
Günter Peters legte eine PowerPoint-Datei vor, die er krankheitshalber nicht erläutern konnte. Dem bei Gruner + Jahr eingesetzten System DocCat attestierte er eine erhebliche Kompetenz. Umso bedauerlicher, dass in seiner Abwesenheit in Cottbus lediglich einige seiner Folien mit laienhaftem Kommentar vorgestellt werden konnten. Unser Trost: Vielleicht wird DocCat im März 2004 in Dortmund vom Kollegen Peters vorgeführt. Prof. Zimmermann war einer der Beteiligten bei der Entwicklung des Systems Milos/KASCADE (das bei der Jahrestagung der GfKI in München schon vorgestellt wurde). In Cottbus lieferte Zimmermann Gedanken zur automatisierten verbalen Sacherschließung, wobei er kurz das Milos/KASCADE-Verfahren streifte und an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys erinnerte. Dort "lernt" das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-48707825-2). Leider ist die Weiterentwicklung von Air/Phys aber unterblieben. Stefan Wolf vom BSZ berichtete über den anderen Weg, Sacherschließung zu erleichtern, nämlich durch Übernahme von Fremdleistungen. Aktuelle Maßnahme hierzu war die Übernahme von Erschließungsdaten sowohl klassifikatorischer als auch verbaler Art aus dem Bibliotheks-Verbund Bayern (BVB) in die Titelaufnahmen, die der Südwestverbund vorhält. Im Frühjahr 2002 verfügte der Südwestverbund über 1,6 Millionen Schlagwortketten an 1,3 Millionen Titeln. Bei der klassifikatorischen Sacherschließung durch die Regensburger Verbundklassifikation (RVK) verfügte der Verbund über lediglich 2% Erschließung. Nach der Anreicherung der Titeldaten durch Übernahme von Bayerischen Sacherschließungsdaten im Laufe des Jahres 2002 verfügten nunmehr 2.4 Millionen Titelaufnahmen über verbale Erschließung (24,9 % von derzeit 9,6 Millionen Titeln Gesamtbestand) und über 18,2 % klassifikatorische Erschließung mit RVK. Dieser Zugang an intellektueller Indexierung fließt derzeit in die Online-Kataloge der angeschlossenen Bibliotheken und eröffnet dort den Nutzern die sachlichen Zugänge zu ihren Schätzen. Abgerundet wurde die Thematik durch Berichte aus Bibliotheken und einer sachlich nahestehenden Einrichtung, so von Jiri Pika von der ETH-Bibliothek in Zürich, Kerstin Zimmerman vom Forschungszentrum Telekommunikation Wien, Horst Lindner von der Universitätsbibliothek der Brandenburgischen Technischen Universität Cottbus und Dörte Braune-Egloff von der UB der Freien Universität Berlin. Wobei Frau Braune-Egloff deutlich machte, dass die von Ihr vertretene Bibliothek zwar zentrale Aufgaben im Bereich der SWD-Kooperation im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). wahrnimmt, allerdings nicht komplett diejenigen einer "Verbundzentrale Sacherschliessung" im herkömmlichen Sinn. Die Vorträge bzw. Power-Point-Präsentationen von Cottbus werden bei Erscheinen des Mitgliederbriefes bereits auf dem Archivserver MONARCH der TU Chemnitz verfügbar sein. Die Adresse: http://archiv.tu-chemnitz.de. In der Sache ein klares Eingeständnis: Noch sind wir nicht so weit, dass sich beispielsweise eine Scan-Apparatur gleichsam in ein Buch versenkt und anschließend dem Online Katalog der besitzenden Bibliothek einen oder mehrere Erschließungsdatensätze hinzufügt. Zum Glück nicht, denn dann könnten die Bibliothekare die Reise nach Dortmund von vornherein unterlassen. So wie die Dinge liegen, gibt es noch viel Neues zu entdecken und Gedanken darüber auszutauschen. Daher schon jetzt mein Aufruf: Die Dortmunder Tagung vom Dienstag, 9. bis Donnerstag, 11. März 2004 vormerken!"
-
Rowley, J.E.; Hartley, R.: Organizing knowledge : an introduction to managing access to information (2008)
0.01
0.008965917 = product of:
0.035863668 = sum of:
0.035863668 = weight(_text_:und in 3464) [ClassicSimilarity], result of:
0.035863668 = score(doc=3464,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.30310458 = fieldWeight in 3464, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3464)
0.25 = coord(1/4)
- Footnote
- Rez. in: VOEB-Mitt. 61(2008) H.4, S.164-167 (O. Oberhauser): " Dieses nunmehr in vierter Auflage vorliegende Werk ist - vor allem in der angelsächsischen Welt - bereits zu einem Standardlehrtext für Studenten informationswissenschaftlicher Studiengänge geworden. Es zeichnete sich stets durch klaren Aufbau, gute Lesbarkeit und eine bei aller Knappheit doch relativ umfassende Themenbehandlung aus. Der im Titel verwendete Begriff organizing knowledge steht hier ja nicht für mögliche engere Bedeutungen wie etwa Wissensrepräsentation oder gar Klassifikation, sondern für den gesamten Themenbereich information retrieval bzw. information management. Die beiden ersten Auflagen verfasste die versierte und produktive Lehrbuchautorin Jennifer Rowley noch alleine;1 erst bei der dritten Auflage (2000) stand ihr John Farrow (2002 verstorben) als Mitautor zur Seite.2 Inzwischen zur Professorin am Department of Information and Communications der Manchester Metropolitan University avanciert, konnte Rowley nunmehr für die neueste Auflage den ebenfalls als Lehrbuchautor erfahrenen Richard Hartley, Professor am selben Institut und überdies dessen Vorstand, als zweiten Verfasser gewinnen. Wie die Autoren in der Einleitung ausführen, wurde das Buch gegenüber der letzten Auflage stark verändert. Die Neuerungen spiegeln insbesondere die anhaltende Verschiebung hin zu einer vernetzten und digitalen Informationswelt wider, mit allen Konsequenzen dieser Entwicklung für Dokumente, Information, Wissen, Informationsdienste und Benutzer. Neue bzw. stark überarbeitete Themenbereiche sind u.a. Ontologien und Taxonomien, Informationsverhalten, digitale Bibliotheken, Semantisches Web, Evaluation von Informationssystemen, Authentifizierung und Sicherheit, Veränderungsmanagement. Der Text wurde revidiert und auch, was diverse Standards und Normen betrifft, auf den aktuellen Stand gebracht. Der in der dritten Auflage noch separate Abschnitt über das Internet und seine Anwendungen wurde zugunsten einer Integration dieser Themen in die einzelnen Kapitel aufgelassen. Das Buch wurde neu gegliedert - es weist jetzt zwölf Kapitel auf, die in drei grosse Abschnitte gruppiert sind. Jedes Kapitel beginnt mit einer kurzen Einleitung, in der die beabsichtigten Lehr- bzw. Lernziele vorgestellt werden. Am Kapitelende gibt es jeweils eine Zusammenfassung, einige (Prüfungs-)Fragen zum Stoff sowie eine nicht allzu lange Liste der zitierten bzw. zur Vertiefung empfohlenen Literatur. Diese durchgehende Strukturierung erleichtert die Lektüre und Rezeption der Inhalte und ist m.E. für einen Lehrtext besonders vorteilhaft.
Um es kurz zu machen - so stelle ich mir ein rundum gelungenes Lehrbuch vor. Gut gegliedert und aufgebaut, bei umfassender Themenbehandlung nicht zu sehr in die Tiefe gehend, mit durchweg brauchbaren, pragmatischen Definitionen, Erläuterungen, Abbildungen und weiteren Hinweisen. Natürlich ist die hier dargestellte Informationswelt eine rein angelsächsische - RSWK, RVK, RAK, MAB & Co. existieren in dieser Umgebung einfach nicht. Damit kann man aber ganz gut leben, insbesondere, wenn es um grundlegendes Wissen geht. Und genau das wird in diesem Buch geboten - wer das hier Ausgeführte beherrscht, hat sich schon eine gute Grundlage für eine vertiefte Beschäftigung mit einzelnen Teilthemen zugelegt. Wie erwähnt, ist das Buch primär für Studenten gedacht, doch sogar Informationsspezialisten können davon profitieren, denn - Hand aufs Herz - wer kann von sich sagen, all das hier Behandelte (noch) präsent zu haben? Wer als gestandener Bibliotheksprofi das "Wagnis" unternimmt, dieses Buch durchzuarbeiten, wird daher vielleicht die eine oder andere Überraschung erleben. In formaler Hinsicht ist der Band sauber und übersichtlich gestaltet, weitgehend druckfehlerfrei, mit einem brauchbaren Register versehen und sogar in preislicher Hinsicht akzeptabel. Eine Anschaffung kann daher vorbehaltlos empfohlen werden. Neuausgabe 2018.
-
Hedden, H.: Indexing specialities : Web Sites (2007)
0.01
0.008965917 = product of:
0.035863668 = sum of:
0.035863668 = weight(_text_:und in 2146) [ClassicSimilarity], result of:
0.035863668 = score(doc=2146,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.30310458 = fieldWeight in 2146, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2146)
0.25 = coord(1/4)
- Footnote
- Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."