Search (1162 results, page 18 of 59)

  • × language_ss:"e"
  1. Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 4654) [ClassicSimilarity], result of:
          0.039674927 = score(doc=4654,freq=56.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 4654, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4654)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
    Content
    "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
    Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
    Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."
  2. Volltextindexierung von Online-Dissertationen (2006) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 5874) [ClassicSimilarity], result of:
          0.039674927 = score(doc=5874,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 5874, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5874)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Bibliothek hat die bei ihr gespeicherten Online-Dissertationen für die Indexierung durch Suchmaschinen freigegeben. Anbieter entsprechender Suchdienste haben damit die Möglichkeit, den gesamten Inhalt frei zugänglicher Online-Dissertationen automatisch zu erschließen und über Suchmaschinen zugänglich zu machen.
    Content
    "»Benutzer und Anbieter von Suchdiensten fragen immer häufiger Volltextsuchmöglichkeiten nach. Im Rahmen unserer Strategie, die Bestände Der Deutschen Bibliothek an vielen Stellen und in unterschiedlichen Sichten auffindbar und nutzbar zu machen, erweitern wir mit dieser neuen Option die Schnittstelle zwischen Informationssuchenden und Bibliotheksbeständen«, kommentiert Elisabeth Niggemann. Die Digitalisierung von Büchern wird derzeit international diskutiert. Mit dem Angebot der Volltextindexierung im Bereich Online-Dissertationen nutzt Die Deutsche Bibliothek die Möglichkeiten eines Segments ihrer Sammlung, das bereits in elektronischer Form vorliegt. Dabei wird sie die Volltextindexierung zunächst nicht selbst vornehmen, sondern bietet den Betreibern entsprechender Suchmaschinen die Möglichkeit, dies zu tun. Speicherort der Online-Publikationen bleibt in jedem Fall der Archivserver Der Deutschen Bibliothek. Im Bereich der Suchmaschinenbetreiber werden die aus der Indexierung gewonnenen Suchbegriffe mit einem Link auf den Volltext bei Der Deutschen Bibliothek gespeichert. Zu den ersten Systemen, die das neue Angebot nutzen werden, gehören das Forschungsportal als Projekt des Bundesministeriums für Bildung und Forschung und der Internetsuchdienst Google. Weitere Anfragen liegen der Bibliothek vor. Forschende werden in Zukunft die Volltextindexierung der Online-Dissertationen mit unterschiedlichen Zugangswegen nutzen können."
  3. ¬Der Alte Realkatalog der Staatsbibliothek ist online (2006) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 5876) [ClassicSimilarity], result of:
          0.039674927 = score(doc=5876,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 5876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5876)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
    Content
    "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
  4. Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 131) [ClassicSimilarity], result of:
          0.039674927 = score(doc=131,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 131, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=131)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."
  5. Diepeveen, C.; Fassbender, J.; Robertson, M.: Indexing software (2007) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
          0.039674927 = score(doc=1742,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 1742, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1742)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag handelt von unterschiedlichen Arten verfügbarer Software zur Erzeugung von Registern und untersucht, ob diese dazu benutzt werden können, ein Register nach internationalen Normen zu erstellen. Da oft behauptet wird, dass die Registererstellung mit einem Computer und ohne Einsatz des Menschen durchführbar sei, untersuchen die Autoren, weshalb Indexieren eine Aktivität des Menschen sein muss und weshalb eine automatische Registererstellung kein zufriedenstellendes Register hervorbringen kann. Automatische Registererstellung kann bestenfalls einen Ausgangspunkt zur weiteren Indexierung liefern. Anschließend wird die Möglichkeit der Registererstellung mit allgemein verfügbarer Software untersucht. Dies kann akzeptable Register hervorbringen, wenngleich oft nur auf mühsame Weise. Für den professionellen Indexierer stellt daher spezielle Indexing Software die bevorzugte Option dar. Die drei am meisten benutzten speziellen Indexierungsprogramme werden kurz bewertet. Ausrichtung und Aussehen dieser Programme sind sehr unterschiedlich, aber die Merkmale und Output-Optionen sind sehr ähnlich. Website Indexing ist ein relativ neues Spezialgebiet innerhalb der Disziplin des Indexierens. Zwei Programme - eine Freeware und ein kommerzielles - zur Erstellung von Registern von Websites werden erörtert. Das Fazit insgesamt ist, dass das Registermachen eine Aktivität ist, die intellektuellen Input des Menschen benötigt. Software kann den Input hervorragend verbessern, aber nicht den Anteil des Menschen daran ersetzen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.413-420
  6. BIBFRAME Model Overview (2013) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 1763) [ClassicSimilarity], result of:
          0.039674927 = score(doc=1763,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 1763, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1763)
      0.25 = coord(1/4)
    
    Content
    Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
  7. Information literacy : infiltrating the agenda, challenging minds (2011) 0.01
    0.009918732 = product of:
      0.039674927 = sum of:
        0.039674927 = weight(_text_:und in 2028) [ClassicSimilarity], result of:
          0.039674927 = score(doc=2028,freq=14.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32416478 = fieldWeight in 2028, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2028)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 66(2013) H.2, S.396-388 (K. Niedermair): "Das Thema des vorliegenden Sammelbandes ist Informationskompetenz, sein Ziel ist (so ließe sich der Untertitel paraphrasieren) zweifach. Einerseits zu berichten über den state of art der Vermittlung von Informationskompetenz im tertiären Bildungssektor in Großbritannien, detaillierte Einblicke zu geben in Initiativen, Projekte und best practices. Andererseits theoretische Grundlagen und Perspektiven zu formulieren für künftige Projektaktivitäten und -anträge. Denn - das ist die Kernaussage des Buches - im Kontext der Informationsgesellschaft und des sich verändernden Bildungs- und Hochschulwesens erfordert die Vermittlung von Informationskompetenz neue Strategien und Konzepte, in inhaltlicher Hinsicht, in politischer, aber auch was didaktische Herangehensweisen betrifft. ... Das Buch greift die Herausforderungen auf, die für die Vermittlung von lnformationskompetenz angesichts der weltweiten Veränderungen im Hochschulwesen entstehen. Das Buch setzt auf neue Lehr-/Lernmethoden, es mahnt im Sinne eines "call to the arms" (S. 10) Initiativen und Projekte ein, denen man Aufmerksamkeit schenken sollte, um die Kernaufgabe der Bibliothek, lnformationskompetenz zu vermitteln, im 21. Jahrhundert neu gestalten zu können. Dazu ein abschließendes Zitat: "We cannot predict the future but we believe that defining the 21st century librarian is about being a teacher and educator not a custodian and keeper of the tomes; it is about, through teaching, turning information into knowledge." (S. 12)"
  8. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.01
    0.009819043 = product of:
      0.03927617 = sum of:
        0.03927617 = weight(_text_:und in 3015) [ClassicSimilarity], result of:
          0.03927617 = score(doc=3015,freq=28.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32090676 = fieldWeight in 3015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3015)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  9. Köhler, W.G.: Challenges of efficient and compliant data processing : assuring legal access to data (2024) 0.01
    0.009819043 = product of:
      0.03927617 = sum of:
        0.03927617 = weight(_text_:und in 2241) [ClassicSimilarity], result of:
          0.03927617 = score(doc=2241,freq=28.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.32090676 = fieldWeight in 2241, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2241)
      0.25 = coord(1/4)
    
    Abstract
    Die fortschreitende Digitalisierung verändert die Gesellschaft und hat weitreichende Auswirkungen auf Menschen und Unternehmen. Grundlegend für diese Veränderungen sind die neuen technologischen Möglichkeiten, Daten in immer größerem Umfang und für vielfältige neue Zwecke zu verarbeiten. Von besonderer Bedeutung ist dabei die Verfügbarkeit großer und qualitativ hochwertiger Datensätze, insbesondere auf Basis personenbezogener Daten. Sie werden entweder zur Verbesserung der Produktivität, Qualität und Individualität von Produkten und Dienstleistungen oder gar zur Entwicklung neuartiger Dienstleistungen verwendet. Heute wird das Nutzerverhalten, trotz weltweit steigender gesetzlicher Anforderungen an den Schutz personenbezogener Daten, aktiver und umfassender verfolgt als je zuvor. Dies wirft vermehrt ethische, moralische und gesellschaftliche Fragen auf, die nicht zuletzt durch populäre Fälle des Datenmissbrauchs in den Vordergrund der politischen Debatte gerückt sind. Angesichts dieses Diskurses und der gesetzlichen Anforderungen muss heutiges Datenmanagement drei Bedingungen erfüllen: Erstens die Legalität bzw. Gesetzeskonformität der Nutzung, zweitens die ethische Legitimität. Drittens sollte die Datennutzung aus betriebswirtschaftlicher Sicht wertschöpfend sein. Im Rahmen dieser Bedingungen verfolgt die vorliegende kumulative Dissertation vier Forschungsziele mit dem Fokus, ein besseres Verständnis (1) der Herausforderungen bei der Umsetzung von Gesetzen zum Schutz von Privatsphäre, (2) der Faktoren, die die Bereitschaft der Kunden zur Weitergabe persönlicher Daten beeinflussen, (3) der Rolle des Datenschutzes für das digitale Unternehmertum und (4) der interdisziplinären wissenschaftlichen Bedeutung, deren Entwicklung und Zusammenhänge zu erlangen.
    Content
    Dissertation zur Erlangung des Doktorgrades (doctor rerum politicarum) an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam. Deutscher Titel: Herausforderungen einer effizienten und gesetzeskonformen Datenverarbeitung :Sicherstellung des rechtmäßigen Zugangs zu Daten. urn:nbn:de:kobv:517-opus4-627843. https://doi.org/10.25932/publishup-62784.
    Imprint
    Potsdam : Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität
  10. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.01
    0.009718332 = product of:
      0.03887333 = sum of:
        0.03887333 = weight(_text_:und in 4198) [ClassicSimilarity], result of:
          0.03887333 = score(doc=4198,freq=84.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.31761533 = fieldWeight in 4198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4198)
      0.25 = coord(1/4)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
    Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  11. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.01
    0.009601941 = product of:
      0.038407765 = sum of:
        0.038407765 = weight(_text_:und in 4675) [ClassicSimilarity], result of:
          0.038407765 = score(doc=4675,freq=82.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.31381142 = fieldWeight in 4675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4675)
      0.25 = coord(1/4)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  12. Lipow, A.G.: ¬The virtual reference librarian's handbook (2003) 0.01
    0.00955793 = product of:
      0.03823172 = sum of:
        0.03823172 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
          0.03823172 = score(doc=4992,freq=52.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.312373 = fieldWeight in 4992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4992)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
    Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
    Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
  13. Stafford, T.; Webb, M.: Mind hacks : tips & tools for using your brain (2005) 0.01
    0.009543212 = product of:
      0.03817285 = sum of:
        0.03817285 = weight(_text_:und in 135) [ClassicSimilarity], result of:
          0.03817285 = score(doc=135,freq=36.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.31189203 = fieldWeight in 135, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=135)
      0.25 = coord(1/4)
    
    Content
    Mit 2 Abb. zu folgendem Beobachtungsexperiment: Eines der beiden Gesichter scheint männlich zu sein, das andere weiblich. Deckt man die linke Hälfte beider Gesichter mit einem Stück Papier zu, so verkehrt sich diese Zuweisung in ihr Gegenteil! Warum? Für die Wahrnehmung - zum Beispiel - des Geschlechts dominiert die rechte Hirnhälfte. Die aber verarbeitet vorrangig Informationen aus der linken Hälfte des Gesichtsfeldes. Beide Bilder sind zusammengesetzt: aus einer männlichen linken und einer weiblichen rechten Gesichtshälfte, und umgekehrt.
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2005, H.12, S.106-107 (M. Jäger): "Das Buch gehört in eine Reihe mit »eBay Hacks«, »Google Hacks« und »Mac OS X Hacks« aus demselben Verlag: Anleitungen, ein System etwas anders zu nutzen, als sein Anbieter das vorgesehen hat. Und doch fällt es aus dem Rahmen. Kein Computer oder Betriebssystem wird gehackt, sondern das Gehirn. Wie die anderen »Hack«Bücher ist es nicht als Sachbuch im herkömmlichen Sinn angelegt, sondern als Sammlung von hundert Experimenten, »Hacks«, aus zehn verschiedenen Bereichen. Gezeigt werden erstaunliche Selbstversuche, unter anderem zum visuellen System, zu Aufmerksamkeitssteuerung, Hören und Sprache, Bewegung, Erinnerung, Schlussfolgerung und Gestaltwahrnehmung. Jedes neurologische Phänomen wird zunächst allgemein erläutert; es folgen die Beschreibung eines zugehörigen Experiments und eine kurze Erklärung sowie Angaben zu weiterführenden Texten und Internetlinks. Tom Stafford, Psychologe an der Universität Sheffield (England), und Matt Webb, Ingenieur, Designer und freischaffender Autor, unter anderem für die BBC, wurden von Spezialisten auf dem jeweiligen Gebiet unterstützt. Die einst beliebte Metapher vom Gehirn als Computer ist in der ursprünglichen Form nicht mehr haltbar, wie auch die Autoren im Vorwort einräumen. Dafür haben sich in den letzten Jahrzehnten zu viele und wesentliche Differenzen offenbart, etwa was Speicherung und Verarbeitung von Informationen angeht. Dennoch gibt es hinreichend viele Parallelen, um die Verwendung des Begriffs »Hack« zu rechtfertigen.
    Natürlich sind »Mind Hacks« keine Schwachstellen oder geheimen Kniffe, mit denen man eine vom »Entwickler« so nicht beabsichtigte Funktion des Gehirns freischalten könnte. Es gibt ja auch keinen Systemadministrator, bei dem man sich über die Fehlprogrammierung beschweren könnte - zumindest zu Lebzeiten nicht. Vielmehr offenbaren die Hacks die buchstäblich eigenwillige Funktionsweise des Gehirns: neuronal festgelegte Annahmen über die Umwelt, die dem »Ich« ihrer Natur nach so nah sind, dass sie nicht bewusst werden, wie eine Brille, die man nicht mehr wahrnimmt. In diesem Sinn sind wir meist Gefangene der Struktur unseres neuronalen Netzes. Stafford und Webb räumen mit der Vorstellung auf, man nutze nur zehn Prozent des Gehirns (Hack #6), und erklären viele alltägliche Phänomene, etwa, warum man sich nicht selbst kitzeln kann (Hack #65), warum man trotz schlechter Verbindung am Telefon immer noch die vertraute Stimme eines Freundes erkennen kann (Hack #33) oder warum der Klang von Worten neben dem Inhalt auch Bedeutung, etwa zur Form des bezeichneten Gegenstandes, vermittelt (Hack #50). Interessant auch Hack #67. Dort wird beschrieben, dass Gegenstände förmlich danach verlangen, auf eine bestimmte Art und Wei- se benutzt zu werden. Bereits durch die Form des Griffs sagt die Tür, dass sie gedrückt werden will; jedenfalls neigen die Leute dazu, das zu tun, auch wenn »Ziehen« draufsteht. Eine Notausgangstür sollte solche Missverständnisse besser nicht aufkommen lassen. Hack #99 schließlich weist auf die Bedeutung von verbaler Psychohygiene hin. Versuchspersonen, die Texte lasen, in die negative Begriffe eingeflochten waren, agierten anschließend in einer sozialen Versuchssituation deutlich aggressiver. Vielleicht gilt ja auch der Umkehrschluss, und Sie sollten dieses Buch entspannt im Sonnenschein auf einer Blumenwiese oder unter einem Regenbogen lesen, denn es birgt echte Schätze. Ein kurzweiliges Buch, das nicht in einem Zug gelesen werden muss und das zum Nachdenken über das Selbstverständnis des Lesers einlädt. Die vielen einfachen Experimente, die auf Alltagserfahrungen aufbauen, sorgen auch auf einer Party für Erstaunen, Belustigung und Gespräche jenseits des üblichen Smalltalks.
  14. Bruner, J.: From communication to language (1975) 0.01
    0.009484122 = product of:
      0.037936486 = sum of:
        0.037936486 = weight(_text_:und in 2635) [ClassicSimilarity], result of:
          0.037936486 = score(doc=2635,freq=20.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3099608 = fieldWeight in 2635, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2635)
      0.25 = coord(1/4)
    
    Abstract
    Bruner war der erste Erforscher des Spracherwerbs von Kindern, der Wittgensteins Problem zu würdigen wußte und eine Antwort darauf vorschlug. Wittgensteins allgemeinem Ansatz folgend, behauptete Bruner, daß das Kind den konventionellen Gebrauch eines sprachlichen Symbols dadurch erwirbt, daß es lernt, an einer Interaktionsform (Lebensform, Szene gemeinsamer Aufmerksamkeit) teilzunehmen, die es zunächst nichtsprachlich versteht, so daß die Sprache des Erwachsenen in geteilten Erfahrungen verankert werden kann, deren soziale Bedeutung es schon begreift. Eine Schlüsselkomponente dieses Prozesses ist zunächst ein Kind, das Erwachsene als intentionale Wesen auffassen kann, so daß es in bestimmten Kontexten seine Aufmerksamkeit mit ihnen teilen kann. Eine andere Komponente ist jedoch die bereits existierende, äußere soziale Welt, in der das Kind lebt. Um Sprache zu erwerben, muß das Kind in einer Welt leben, die strukturierte soziale Tätigkeiten aufweist, die es verstehen kann, so wie unser hypothetischer Besucher Ungarns das Kaufen von Fahrkarten und das Reisen mit Zügen verstand. Für Kinder bedeutet das häufig die Wiederkehr derselben routinemäßigen, allgemeinen Aktivität, so daß sie erkennen können, wie diese Aktivität aufgebaut ist und wie die verschiedenen sozialen Rollen in ihr funktionieren. Wenn wir am Spracherwerb interessiert sind, muß der Erwachsene außerdem ein neues sprachliches Symbol auf eine solche Weise verwenden, die das Kind als relevant für die gemeinsame Tätigkeit erkennen kann (nämlich im Gegensatz zur unvermittelten Ansprache des Ungarn auf dem Bahnhof). Wenn ein Kind in eine Welt geboren werden würde, in der dieselbe Art von Ereignis nie wiederkehrte, derselbe Gegenstand nie zweimal erschiene und Erwachsene nie dieselben Ausdrücke im selben Kontext verwendeten, dann würde im allgemeinen schwer zu sehen sein, wie dieses Kind eine natürliche Sprache erwerben könnte, welche kognitiven Fähigkeiten es auch immer haben möge. Eine Reihe von Untersuchungen hat gezeigt, daß Kinder nach ersten Fortschritten beim Spracherwerb neue Wörter am besten in Szenen gemeinsamer Aufmerksamkeit lernen. Oft handelt es sich dabei um solche, die in ihrer täglichen Erfahrung wiederkehren, wie Baden, Füttern, Windelwechseln, Vorlesen und Autofahren. Diese Tätigkeiten sind in vielen Hinsichten analog zu dem Szenario des Fahrkartenkaufs auf einem Bahnhof, insofern das Kind seine eigenen und die Ziele des Erwachsenen in der jeweiligen Situation versteht, was ihm ermöglicht, die Relevanz des Sprachverhaltens des Erwachsenen für diese Ziele zu erschließen. So stellten Tomasello und Todd fest, daß Kinder, die mit ihren Müttern längere Zeit bei Tätigkeiten gemeinsamer Aufmerksamkeit im Alter zwischen zwölf und achtzehn Monaten verbrachten, mit achtzehn Monaten ein größeres Vokabular hatten. Bei der Sprachverwendung Erwachsener innerhalb dieser Szenen gemeinsamer Aufmerksamkeit fanden Tomasello und Farrar sowohl korrelative als auch experimentelle Belege für die Hypothese, daß Mütter, die Sprache beim Versuch verwendeten, der Aufmerksamkeit ihrer Kinder zu folgen (d. h. über einen Gegenstand zu sprechen, der schon im Brennpunkt des Interesses und der Aufmerksamkeit des Kindes stand), Kinder mit einem größeren Vokabular hatten als Mütter, die Sprache beim Versuch verwendeten, die Aufmerksamkeit des Kindes auf etwas Neues zu lenken.
  15. Rinn, R.; Werner, C.: ¬Der Neuerscheinungsdienst Der Deutschen Bibliothek : Eine Bilanz nach eineinhalb Jahren (2004) 0.01
    0.009484122 = product of:
      0.037936486 = sum of:
        0.037936486 = weight(_text_:und in 3788) [ClassicSimilarity], result of:
          0.037936486 = score(doc=3788,freq=20.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3099608 = fieldWeight in 3788, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3788)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Auslieferung der ersten Ausgabe im Januar 2003 löste der Neuerscheinungsdienst (ND) Der Deutschen Bibliothek den CIP-Dienst ab. Über die Gründe für die Neukonzeption der Dienstleistungen bezüglich der Vorankündigungen, über die Ziele und die Funktion des neuen Dienstes sowie über seine ersten Ausgaben wurde bereits im Detail berichtet". Nur soviel sei in Erinnerung gerufen: Die Deutsche Bibliothek bietet neben ihren anderen Dienstleistungen nun je einen auf die jeweilige Funktion zugeschnittenen Spezialdienst für Erwerbung bzw. Katalogisierung an: Für Erwerbungszwecke ist dies der Neuerscheinungsdienst, der die Verlegermeldungen anzeigt, die parallel dazu auch in das VLB aufgenommen werden. Die Titeldaten der Verleger werden in Der Deutschen Bibliothek mit Sachgruppen versehen, ansonsten aber nicht weiter bearbeitet. Sie enthalten keine hierarchischen Verknüpfungen und ihre Personen- oder Körperschaftseintragungen sind nicht mit den entsprechenden Normdateien PND und GKD verknüpft. Die Daten sind insoweit standardisiert, als dies von dem für die VLB-Meldungen verwendeten ONIX-Format verlangt wird und sie dem Regelwerk des VLB entsprechen, und unter bibliothekarischen Gesichtspunkten teilweise von heterogener Qualität. Für Katalogisierungszwecke werden natürlich weiterhin die Daten der Reihen A, B und C der Deutschen Nationalbibliografie für Eigenkatalogisierung angeboten, deren »autopsierte« Daten nationalbibliografisch autorisiert sind und als endgültige Katalogisate ohne weitere Korrekturen übernommen werden können. Diese beiden Dienste ergänzen sich gegenseitig und sie beide, nicht der Neuerscheinungsdienst allein, sind als funktionale Nachfolger des CIP-Dienstes anzusehen. Um die Nutzbarkeit der beiden Dienste weiter zu verbessern, hat Die Deutsche Bibliothek in den vergangenen eineinhalb Jahren eine ganze Reihe von Maßnahmen ergriffen, auf die hier näher eingegangen werden soll. Dabei sind vor allem auch Anregungen und Kritik berücksichtigt worden, die verschiedene Dienstleistungsbezieher zu den ersten Ausgaben des Neuerscheinungsdienstes dankenswerterweise geäußert haben. Die wichtigsten Einzelpunkte sind im Folgenden vorangestellt. Die statistischen Angaben beziehen sich auf das Jahr 2003, in dem insgesamt ca. 94.000 Titelmeldungen im Neuerscheinungsdienst angezeigt worden sind. - Bereits in der Deutschen Nationalbibliografie angezeigte Titel werden nochmals im ND angezeigt: Durch einen Dublettencheck werden seit März 2003 bereits in der Datenbank Der Deutschen Bibliothek vorhandene Titel erkannt und nicht mehr in den ND übernommen. - Es werden vermehrt Titel ausländischer Verlage ohne deutschen Verlagssitz angezeigt: So genannte NSG-Titel, d. h. Titel, die nicht in das Sammelgebiet Der Deutschen Bibliothek gehören, werden nicht übernommen, soweit sie als solche erkennbar sind. Dazu zählen auch alle Titel von ausländischen Verlagen ohne deutschen Verlagssitz. Zur Information sei erwähnt, dass von den 2003 im ND angezeigten Titeln 96 % eine ISBN mit der Länderkennzeichnung »3-« hatten.
  16. Harvey, D.R.: Preserving digital materials (2005) 0.01
    0.009484122 = product of:
      0.037936486 = sum of:
        0.037936486 = weight(_text_:und in 1643) [ClassicSimilarity], result of:
          0.037936486 = score(doc=1643,freq=20.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3099608 = fieldWeight in 1643, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1643)
      0.25 = coord(1/4)
    
    Classification
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
    Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
    RVK
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
  17. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.01
    0.009484122 = product of:
      0.037936486 = sum of:
        0.037936486 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
          0.037936486 = score(doc=4081,freq=20.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3099608 = fieldWeight in 4081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4081)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.01
    0.009461867 = product of:
      0.037847467 = sum of:
        0.037847467 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
          0.037847467 = score(doc=2703,freq=26.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3092335 = fieldWeight in 2703, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2703)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
  19. Clyde, L.A.: Weblogs and libraries (2004) 0.01
    0.009461867 = product of:
      0.037847467 = sum of:
        0.037847467 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.037847467 = score(doc=5496,freq=26.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3092335 = fieldWeight in 5496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5496)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
    Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
  20. Fassbender, J.: Professionelle Registererstellung : Das DNI informierte auf der Frankfurter Buchmesse 2006 (2007) 0.01
    0.009461867 = product of:
      0.037847467 = sum of:
        0.037847467 = weight(_text_:und in 903) [ClassicSimilarity], result of:
          0.037847467 = score(doc=903,freq=26.0), product of:
            0.12239123 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.055183407 = queryNorm
            0.3092335 = fieldWeight in 903, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=903)
      0.25 = coord(1/4)
    
    Content
    "Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab - diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur - wie immer noch weitläufig angenommen - auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften - womöglich kurz vor Ende eines Projektes - hat oft erhebliche Mängel zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen - im Gegensatz zu professionellen Indexern - kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
    4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und Online-Medien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.1, S.6

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 740
  • m 299
  • el 96
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications