Search (1152 results, page 9 of 58)

  • × language_ss:"e"
  1. Conversations with catalogers in the 21st century (2011) 0.01
    0.010593284 = product of:
      0.042373136 = sum of:
        0.042373136 = weight(_text_:und in 4530) [ClassicSimilarity], result of:
          0.042373136 = score(doc=4530,freq=52.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.37458867 = fieldWeight in 4530, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=4530)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in Mitt VÖB 64(2011) H.1, S.151-153 (S. Breitling): "Wie sieht die Rolle der Katalogisierung im 21. Jahrhundert aus? In diversen Blogs und Mailinglisten wird darüber seit geraumer Zeit diskutiert. Der Bereich Katalogisierung befindet sich in einer Phase tiefgreifenden Wandels, ausgelöst durch eine Vielzahl von Faktoren, von denen veränderte Nutzererwartungen bei der Recherche und die wachsende Menge an neuen zu katalogisierenden Materialien (e-Books, Web-Ressourcen etc.) und Formaten nur zwei Aspekte darstellen. Das technische Umfeld wird nicht zuletzt durch fortgeschrittene Möglichkeiten im Bereich Retrieval und Präsentation geprägt. Wie schafft man es, dass Katalogisierung als Teil des gesamten Bibliothekswesens relevant und zeitgemäß bleibt? Welche der in Jahrzehnten Katalogisierungspraxis erarbeiteten Standards sind erhaltenswert, und welche sind im Hinblick auf den Fortschritt der IT und ein mögliches Semantic Web vielleicht gar nicht mehr nötig oder müssen an die Gegebenheiten angepasst werden? Mit diesen und anderen Fragen beschäftigt sich die Aufsatzsammlung "Conversations with catalogers in the 21st century". In der Community bekannte Personen wie Martha Yee, Christine Schwartz oder James Weinheimer kommen zu Wort, aus dem deutschsprachigen Raum Bernhard Eversberg, Entwickler des Bibliothekssystems Allegro.
    Ein großes Thema ist erwartungsgemäß das neue Regelwerk RDA, das, um es vorwegzunehmen, bei den drei Autoren, die sich ausschließlich diesem Gesichtspunkt widmen, vorwiegend auf Kritik stößt. Erstmals publiziert wird an dieser Stelle eine Studie der Herausgeberin Elaine R. Sanchez, die ein Meinungsbild der einschlägig tätigen Bibliothekarinnen (wie z.B. Titelaufnehmerinnen, Systembibliothekarinnen) zum Umstieg auf RDA zeichnet. Wie in den anderen Kapiteln liegt auch hier der Schwerpunkt auf dem US- bzw. anglo-amerikanischen Raum, was einen Blick über den eigenen Tellerrand ermöglicht und eine Grundstimmung einfängt, der man auch in Europa und hierzulande angesichts internationaler Kooperationen und zunehmend globaler Ausrichtung bei Standards und Regelwerken Beachtung schenken sollte. Andere Beiträge setzen sich mit Themen auseinander, die ebenfalls die Rolle der Katalogisierung unter sich ständig und rasant verändernden Bedingungen betreffen: die Bedeutung von bibliographischen Standards (und Qualitätsstandards im besonderen) im Zeitalter von Google Books, das Titeldaten aus Bibliotheken "nur noch" in einem Mashup mit anderen algorithmisch aufbereiteten Daten verarbeitet; das sich wandelnde Berufsbild von Titelaufnehmerinnen, die mit traditionellen Materialien und Datenformaten arbeiten, hin zu Metadaten-Spezialisten, die sich durch Kenntnisse digitaler Objekte und der entsprechenden Formate wie etwa Dublin Core auszeichnen; Anpassung von Workflows an die technischen Möglichkeiten der Automatisierung und Digitalisierung; Anforderungen an Ausbildung und berufliche Weiterbildung von Katalogisierungsexpertinnen etc. Eine chronologische Bibliographie von Literatur mit Bezug auf Bibliotheken und Katalogisierung von 1800 bis heute beschließt den Band.
    Eine wiederkehrende positive Einschätzung ist, dass Katalogisiererinnen sich in der jüngeren Geschichte schon mehrmals Wandel und Veränderungen stellen mußten (z.B. Umstieg von Zettelkatalog auf EDV) und dies auch stets gut gemeistert haben. Allerdings muss man hier anmerken, dass neue Entwicklungen erst mit (großer) Verzögerung nachvollzogen wurden und Bibliotheken heute nicht mehr die einzigen sind, die bibliographische Daten bereitstellen. Es gilt also mehr denn je, sich als ein Player unter vielen zu positionieren und die Rolle neu zu definieren, die Bibliotheken (und vor allem die Katalogisierung als Rückgrat der Informationsversorgung) in einer veränderten Wissens- und Informationslandschaft spielen. Der vorliegende Titel kann hierzu Anregungen und Denkanstöße aus verschiedenen Blickwinkeln, wenn auch keine wirklich revolutionären Ansätze oder gar fertigen Lösungen liefern."
  2. Globalisierung und Wissensorganisation : Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999 (2000) 0.01
    0.010564951 = product of:
      0.042259805 = sum of:
        0.042259805 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.042259805 = score(doc=2133,freq=38.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3735868 = fieldWeight in 2133, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2133)
      0.25 = coord(1/4)
    
    Abstract
    Durch Vernetzung unterschiedlicher Informationsbestände und ihre Verfügbarkeit über Länder- und Gruppengrenzen hinweg werden vorrangig Fragen aufgeworfen, welche die Integration, die Interpretation und die Repräsentation von Wissen betreffen. Entsprechend scheinen hierdurch für die Wissensorganisation altbekannte Problematiken in neuem Licht und mit veränderter Tragweite auf. Für die 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO), die vom 23.-25. September 1999 an der Fachhochschule Hamburg stattfand, wurde deswegen das Leitthema 'Globalisierung und Wissensorganisation' gewählt. In unterschiedlicher Weise hatten die Referenten der Tagung die veränderten Fragestellungen für die Wissensorganisation und die Implikationen dessen, was heute oft mit dem Terminus `Globalisierung' verbunden wird, herausgearbeitet. 'Globalisierung' kann als Ausdruck der Ängste und Erwartungen unserer Zeit in Hinblick auf die Zukunft gesehen werden, welche an der Schwelle zur Jahrtausendwende (vermeintlich) besonders gravierend erscheinen. Der wechselseitige Bezug zwischen 'Wissensorganisation' und 'Globalisierung' thematisiert aber nicht nur neue, umfassendere Fragen für die Wissensorganisation sondern versucht auch, in den unklaren Perspektiven einer globalisierten Wissenslandschaft einige Orientierungspunkte zu geben. Aktuelle Anwendungsgebiete ergeben sich grundsätzlich dort, wo verteilte Ressourcen weltweit bereitgestellt oder genutzt werden: So etwa beim Wissensmanagement in multi-nationalen Unternehmen, beim Entwurf von Ontologien, die für unterschiedliche fachliche oder kulturelle Konzeptualisierungen offen sind, bei der sachlichen Ordnung in thematischen Clearingstellen und der Erstellung von Meta-Daten für Internet-Quellen, bei der Recherche von multimedialer Information und bei vielem anderen.
    Content
    Enthält die Beiträge: SPINNER, H.F.: Ordnungen des Wissens: Wissensorganisation, Wissensrepräsentation, Wissensordnung; RAHMSTORF, G.: Existenzformen des Wissens; BUDIN, G.: Wissen(schafts)theorie und Wissensorganisation; LEHNER, C.: Beitrag zu einer holistischen Theorie für die Informationswissenschaft; JAENECKE, P.: Ist 'Wissen' ein definierbarer Begriff?; GLAUSER, C.: National science systems and the Matthew effect for countries; GLAUSER, C.: Tyson beisst Holyfield - und Minuten später wissen es alle: eine Inhaltsanalyse des Informationsflusses von drei Teletext-Sendern; OHLY, H.P.: Der 'Stand der Technik': eine bibliometrische Betrachtungsweise; CZAP, H.: Theorienbildung mittels Künstlich Neuronaler Netze vom Typ MLP; GRÖßLER, A., A. REUTHER: Notwendigkeit einer gemeinsamen Wissensbasis: eine Fallstudie mit Hilfe von Syste-Archetypen; STEPHAN, P.F., S. ASMUS: Wissensdesign: mit neuen Medien Wissen Gestalten; ORTHMANN, C., L. NÄCKE: Die Chancen virtueller sozialer Gemeinschaften im Internet für einen interkulturellen Wissenschaftsdiskurs; SCHMITZ-ESSER, W.: Gedankenraumreisen: neue Thesaurusstrukturen, multimedial präsentiert, machen Anregung, Spielen, Lernen, Finden möglich für jedermann; SIGEL, A.: Zum Wert multipler und adaptiver Indexierung mit Konzeptrahmen für die Sozialwissenschaften; LENSKI, W., E. WETTE-ROCH: Pragmatische Aspekte der Wissensmodellierung in Wissenschaftlichen Informationssystemen; UMSTÄTTER, W.: Wissensorganisation mit Hilfe des semiotischen Thesaurus: auf der Basis von SGML bzw. XML; KLEIN, H.: Erfordernisse bei einer Inhaltsanalyse von Informationen aus dem WWW; DOBRATZ, S., M. SCHULZ: Dissertationen in SGML/XML: Erprobung eines Publikationskonzeptes; PLUTAT, B.: "Darunter hätte ich nicht nachgeschaut ...": Erschließungssysteme und Nutzerbeteiligung; SCHULZ, U.: Anwenderpartizipation bei der Entwicklung eines Kinder-OPACs: Erschließungssysteme und Nutzerbeteiligung; MEDER, N.: Didaktische Ontologien; SWERTZ, C.: Ausbildung zum Gebrauch didaktischer Ontologien; LEIDIG, T.: Technologische Aspekte didaktischer Ontologien; SCHOTT, H.: Thesaurus Sozialwissenschaften online; VAN DER VET, P. : Content engineering; ENDRES-NIGGEMEYER, B.: Empirical methods for ontology engineering in bone marrow transplantation; AHRWEILER, P.: Die Integration heterogener Wissenssysteme auf dem Computer; HELLWEG, H.: Die GESIS Socio-Guide: ein kooperatives Link-Verwaltungs-System; LENSKI, W.: Gleichheitsbegriffe in hoch-strukturierten Datenbanken. GOPPOLD, A.: Ein Struktursystem zur Klassifikation von Wissen in der Biosphäre; REDEKER, G.: Didaktische Ontologien: Stand der internationalen Forschung; LEDERBOGEN, U., J. TREBBE: Das Intenret als Quelle für Wissenschaftsinformation: Ergebnisse einer Online-Befragung; STEGBAUER, C.: Die Rolle der Lurker in Mailinglisten; BEHMAN, F.: Strategische Frühaufklärung schafft die Basis für Innovation im Zeitalter globaler Vernetzung; TEUBENER, K., N. ZURAWSKI: Wissenschaftsvernetzung, Internet und Interface-Design für die Massenmedien; MAYER, M.: Kontextvisualisierung: BrowsingIcons and BrowsingGraphs zur Verbesserung der Orientierung und Navigation im World Wide Web.
  3. Savelsberg, S.: Informationsgesellschaft - ein neues Paradigma für Bibliotheken : Ein Kolloquium in Brasilien (2005) 0.01
    0.010564951 = product of:
      0.042259805 = sum of:
        0.042259805 = weight(_text_:und in 4769) [ClassicSimilarity], result of:
          0.042259805 = score(doc=4769,freq=38.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3735868 = fieldWeight in 4769, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4769)
      0.25 = coord(1/4)
    
    Abstract
    Theorie und Praxis der Informationsgesellschaft standen im Mittelpunkt des deutsch-französischen Kolloquiums, das die Goethe-Institute Rio und Sao Paulo in Zusammenarbeit mit der Alliance Francaise, der Maison de France sowie den Bibliotheksräten der Bundesländer Rio und Sao Paulo im Mai anboten.
    Content
    "An der hochkarätig besetzten Veranstaltung nahmen insgesamt mehr als tausend Besucher teil, unter ihnen KollegInnen aus Öffentlichen Bibliotheken, StudentInnen und Professorlnneu der Fachbereiche Bibliothek, Informations- und Kommunikationswissenschaften. Diese unerwartet hohe Teilnehmerzahl zeigt, dass das brasilianische Fachpublikum ein reges Interesse daran hat, neben den in Praxis und Lehre oftmals vorherrschenden amerikanischen Modellen auch europäische Konzepte im Bibliotheks- und Informationsbereich kennen zu lernen. Ziel des Kolloquiums war es, den Wissensaustausch zwischen europäischen und brasilianischen Experten im Informationsbereich zu vertiefen und mit Blick auf den World Summit an the Information Society II im November in Tunis die Strukturen der globalen Informationsgesellschaft kritisch zu hinterfragen sowie die für Schwellenländer eklatante Diskrepanz zwischen Kommerzialisierung von Information einerseits und freiem Zugang andererseits zu thematisieren. Dabei sollte insbesondere die Rolle der Öffentlichen Bibliotheken bei der Vermittlung von Informations- und Lesekompetenz hervorgehoben werden. Der erste Teil der Veranstaltung stellte mit zwei renommierten Wissenschaftlern informationspolitische Aspekte in den Mittelpunkt: - Information: Öffentliches oder privates Gut - eine globale Perspektive (Rainer Kuhlen, Universität Konstanz, Fachbereich Informationswissenschaft und Mitglied der Deutschen UnescoKommission) - Eine Informations-Utopie (Armand Mattelart, Universität Paris, Fachbereich Kommunikationswissenschaften)
    Um die zentrale Rolle der Öffentlichen Bibliotheken in der Informationsgesellschaft aufzuzeigen, stellten im zweiten Teil Bibliotheksexperten innovative Modelle zur Vermittlung von Informations- und Medienkompetenz vor. Anhand deutscher und französischer Vorbilder wollten wir - insbesondere vor dem Hintergrund der defizitären öffentlichen Bildungslandschaft Brasiliens - Möglichkeiten aufzeigen, wie Bibliotheken sich durch gezielte Maßnahmen auf die Anforderungen des 21. Jahrhunderts vorbereiten und ihre Position stärken können. - Die Öffentliche Bibliothek als Partner für Information und lebenslanges Lernen (Barbara Lison, Leiterin Stadtbibliothek Bremen) - Die sich wandelnde Bibliothek (Patrick Bazin, Leiter Bibliotheque Municipale Lyon) - Informations- und Kommunikationstechnik in Bibliotheken - Das Beispiel der BPI (Gerald Grunberg, Direktor Bibliotheque Publique d'Information im Centre Pompidou) Auch von brasilianischer Seite konnten renommierte Experten als Referenten gewonnen werden: Maria Ines Bastos, Koordinatorin des Fachausschusses »Kommunikation und Information« der brasilianischen Unesco-Komission; José Marcos Nogueira Viana, Berater des brasilianischen Außenministeriums sowie Vorsitzender der ständigen Vertretung Brasiliens bei der International Telecommunication Union (ITU); Ana Lizia Medeiros, Direktorin der Öffentlichen Bibliotheken des Bundeslandes Rio de Janeiro, sowie Galeno Amorim vom brasilianischen Kulturministerium.
    Neben einem Zuschuss von fünftausend Euro aus dem Elysée-Fonds und einigen Sponsoren, die sich mit nicht unerheblichen Sachspenden beteiligten, wurde die Veranstaltung aus den Projektmitteln der französischen Partner sowie des GoetheInstitutes unterstützt. Sie hat dazu beigetragen, die deutschfranzösische Zusammenarbeit zu intensivieren, denn für den Arbeitsbereich Information & Bibliothek war dies die erste Veranstaltung dieser Art in Brasilien. Nach dem großen Erfolg sowie den vielen begeisterten Kommentaren aus der Fachszene gibt es nun Überlegungen, diese Kooperation in den nächsten Jahren fortzusetzen. Schließen möchte ich meinen Bericht mit einem Zitat der französischen KollegInnen schließen: »La programmation du colloque, alliant réflexion théorique et présentation détaillée de situations exemplaires, entendait fournir aux professionnels brésiliens des outils européens pour penser une politique de la lecture publique au 21ème siècle. La forte participation enregistrée à Sao Paulo comme à Rio et les interventions d'éminents acteurs brésiliens traduisent bien l'intéret porté par les professionnels locaux pour notre expertise dans ce domaine. Cette opération a en outre permis de se rapprocher dans de bonnes conditions de plusieurs institutions-cles.«"
  4. fachportal-paedagogik.de : Einstieg in erziehungswissenschaftliche Fachinformation (2005) 0.01
    0.010387569 = product of:
      0.041550275 = sum of:
        0.041550275 = weight(_text_:und in 3998) [ClassicSimilarity], result of:
          0.041550275 = score(doc=3998,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3673144 = fieldWeight in 3998, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3998)
      0.25 = coord(1/4)
    
    Abstract
    Erziehungswissenschaftler aus Forschung und Praxis haben mit dem »Fachportal Pädagogik« seit Ende August einen zentralen und umfassenden Zugang zu Fachinformationen ihres Fachgebiets. Der neue Service bringt ihnen hochwertige Ressourcen der Erziehungswissenschaft an den Arbeitsplatz, von bibliographischen Metadaten über elektronische Volltexte bis hin zu Fakteninformationen. Entwickelt und betrieben wird das Portal vom Informationszentrum Bildung des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF). Zu finden ist es unter www.fachportal-paedagogik.de.
    Content
    "Im Zentrum des Fachportals Pädagogik steht die renommierte »FIS Bildung Literaturdatenbank« (www.fachportal-paedagogik.de/fis_bildung/fis_form.html), deren Inhalte und Funktionalitäten erweitert und in einen umfassenderen fachlichen Kontext eingebunden wurden. Wer über die Literaturrecherche hinaus weitere fachliche Informationen benötigt, kann über eine Metasuche ein breites Spektrum von bildungsspezifischen Datenbanken in seine Suche einbeziehen. Unter anderem sind dies: - Zeitungsdokumentation Bildungswesen / ZeitDok - BildungsSysteme International - Personen-, Institutionen-, Veranstaltungsdatenbanken und Online-Ressourcen des Deutschen Bildungsservers - Projektdatenbank Foris des IZ Sozialwissenschaften - Bilddokumente des digitalen Bildarchivs »Pictura Paedagogica Online« der Bibliothek für Bildungsgeschichtliche Forschung Anschluss an die international verfügbare Fachliteratur erhalten die Nutzer über die Einbindung weiterer wichtiger Fachdatenbanken wie dem British Education Index; für die Zukunft geplant ist eine Vernetzung mit dem amerikanischen Pendant Eric. Über einen Zugang zu infoconnex (www.infoconnex.de) können sie zudem eine interdisziplinäre Recherche in den bibliographischen Datenbanken der Nachbardisziplinen Psychologie (Psyndex) und Sozialwissenschaften (Solis) durchführen. Wissenschaftler sind auch Produzenten von Fachinformation. Über das Fachportal Pädagogik können sie jetzt ihre Publikationen selbst in die FIS Bildung Literaturdatenbank eintragen. Dafür steht unter www.fachportal- paedagogik.de/publikationen ein spezielles Eingabeformular zur Verfügung. Das Fachportal Pädagogik wird von der Deutschen Forschungsgemeinschaft (DFG) gefördert. Es ist der erziehungswissenschaftliche Partner im Rahmen des disziplinübergreifenden Wissenschaftsportals vascoda und integriert wesentliche Komponenten aus Förderprojekten des Bundesministeriums für Bildung und Forschung (BMBF)."
  5. ¬Die Europäische Digitale Bibliothek wächst weiter (2006) 0.01
    0.010387569 = product of:
      0.041550275 = sum of:
        0.041550275 = weight(_text_:und in 4952) [ClassicSimilarity], result of:
          0.041550275 = score(doc=4952,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3673144 = fieldWeight in 4952, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4952)
      0.25 = coord(1/4)
    
    Content
    "Die Nationalbibliotheken von Dänemark, Estland und Lettland haben mit Jahresbeginn den Teilnehmerkreis von »The European Library« (www.europeanlibrary.com) erweitert. Mit der Weiterentwicklung der Portalsoftware ist das Angebot schneller und zuverlässiger geworden. Die unter dem Namen "The Europcan Library," (TEL) im Spätherbst vergangenen Jahres gestartete Europäische Digitale Bibliothek wächst weiter. Bis Ende 2006 werden die Onlinekataloge und mehr als 200 Sammlungen von 2,3 europäischen Nationalbibliotheken über dieses Internetportal recherchierbar sein. Das Angebot wird sich damit innerhalb eines Jahres nahezu verdoppeln. The European library ermöglicht integrierte Suchanfragen über institutionelle und geografische Grenzen hinweg. Das in den umfangreichen Datenbeständen der Bibliotheken repräntierte kuIturelle Erbe Europas wird damit vom Schreibtisch aus zugänglich. Urheberrechtsfreie digitale Dokumente können direkt abgerufen werden. Teilnehmende Bibliotheken passen ihre Kataloge an die Metadaten- und Suchstandards der Europäischen Digitalen Bibliothek an und ermöglichen damit die katalog- und sammlurngsübergreifende Recherche. Für The European Library wurde eine neue Webtechnologie verwendet, mit der Portalfunktionen einfach und preiswert realisiert werden können. Die Software "Portal-in-the-Browser" (www.dlib.org/dlib/february04/vanveen/02vanveen.html) steht Interessenten frei zur Verfügung. Die Entwickler erhoffen eine Anwendung in weiteren kulturellen Bereichen und damit die mögliche Verknüpfung der verschiedenen Sektoren. Für das kommende Frühjahr ist eine Benutzerbefragung zur weiteren Verbesserung von The European library geplant."
  6. hbz: ¬Das Suchraum-Konzept (2007) 0.01
    0.010387569 = product of:
      0.041550275 = sum of:
        0.041550275 = weight(_text_:und in 310) [ClassicSimilarity], result of:
          0.041550275 = score(doc=310,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3673144 = fieldWeight in 310, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=310)
      0.25 = coord(1/4)
    
    Content
    "Wer wissenschaftliche Informationen und Fachliteratur sucht, kommt mit einer herkömmlichen Internet-Suchmaschine nicht weit. Auch Bibliothekskataloge und Datenbanken helfen nur begrenzt weiter, da es zu viele Anlaufstellen im Web gibt. Das Hochschulbibliothekszentrum NRW (hbz) arbeitet deshalb an der technischen Infrastrukturlösung eines gemeinsamen Suchraums. Der Suchraum fasst mithilfe modernster Suchmaschinentechnologie viele unterschiedliche Datenquellen zu einem optimierten Index zusammen, der von verschiedenen Suchanwendungen in Sekundenschnelle abgefragt werden kann. Zu den Datenbeständen des Suchraums gehören die Kataloge der deutschsprachigen Bibliotheken sowie Artikel aus den Wissenschaftszeitschriften. Hinzu kommen Abstracts, Inhaltsverzeichnisse und andere Informationen. Ergänzt wird dieser Suchindex durch einen Zugriff auf Fachdatenbanken, die zum Beispiel das vascodaProjekt zusammenträgt. Die Suchanwendungen wie beispielsweise die Portal-Lösung »DigiBib - Die Digitale Bibliothek« müssen nur noch den einheitlich aufgebauten Index durchsuchen und erhalten die Ergebnisse nach wenigen Millisekunden. In der Realität existiert eine solche virtuelle Metabibliothek nur in den Anfängen. Der Dreiländerkatalog des hbz und das Wissenschaftsportal vascoda sind ein großer Schritt auf dem Weg zu diesem gemeinsamen Suchraum. Er kann nur durch eine - inhaltlich und geografisch-weiträumige Kooperation der Universitäten, Bibliotheken, Verlage und anderer Anbieter von Fachinformationen der deutschsprachigen Länder aufgebaut werden. Die Grundlagen für dieses Ziel wurden bereits vom hbz gelegt. Die Teilnahme am Suchraum ist eine lohnende Aufgabe für die Bibliotheken und Wissenschaftsorganisationen: Am Ende steht eine wissenschaftliche Suchmaschine, die alle wichtigen und nützlichen Datenquellen erfasst."
  7. Geiß, D.: ¬Die Zukunft der europäischen Patentbibliotheken : Partner für Innovationen! - PATLIB Kongress des Europäischen Patentamts vom 14. bis 16. Mai 2007 in Sevilla, Spanien (2007) 0.01
    0.010387569 = product of:
      0.041550275 = sum of:
        0.041550275 = weight(_text_:und in 505) [ClassicSimilarity], result of:
          0.041550275 = score(doc=505,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3673144 = fieldWeight in 505, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=505)
      0.25 = coord(1/4)
    
    Abstract
    Die diesjährige Konferenz der Europäischen Patentbibliotheken, ausgerichtet vom Europäischen Patentamt in enger Zusammenarbeit mit dem Spanischen Patentamt und den Innovationsagenturen in Andalusien, fand in Sevilla, Spanien, statt. Diese Arbeitstagung stand unter dem Motto: PatLib - Partner für Innovationen. Rund 400 Teilnehmer aus 320 Patentbibliotheken, insbesondere aus den osteuropäischen neuen Mitgliedsstaaten, waren nach Sevilla gekommen, um die Kooperation mit dem Amt und den Partnern zu festigen, die zukünftige Entwicklung im Zeichen der Erweiterung ihrer Dienstleistungen zu diskutieren und aus Beispielen zu lernen, wie die Zukunft gestaltet werden kann. Schon bei der Vorbereitung der Tagung zeichnete sich ab, dass ein Strukturwandel unverzichtbar wird, wenn die Patentbibliotheken auch weiterhin ihre angestammte Vormachtstellung in der Versorgung ihrer Region mit Informationen zum gewerblichen Rechtsschutz behaupten und ihre vorrangige Rolle im Innovationskreislauf spielen wollen. Dieser Wandel wird umso dringender, je weit reichender und erfolgreicher die Fortschritte sind, die von Patentbehörden und Internetprovider von Jahr zu Jahr unternommen werden, um die Öffentlichkeit mit präzisen und umfassenden Informationen zu versorgen. Immer mehr Ratsuchenden erscheint es daher müßig, sich an ein fachkundiges Patentinformationszentrum zu wenden. Sie nutzen lieber direkt vom eigenen Schreibtisch die vielfältigen Möglichkeiten des Internets, um sich mit Pateninformationen zu versorgen. Dies führt zwar nicht zu zuverlässigen Ergebnissen, doch vielen reichen die Resultate als Grundlage für ihre weiteren Planungen und für ihre möglichen Schutzrechtsanmeldungen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.293-299
  8. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.01
    0.010387569 = product of:
      0.041550275 = sum of:
        0.041550275 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.041550275 = score(doc=482,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3673144 = fieldWeight in 482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=482)
      0.25 = coord(1/4)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
  9. Tiedau, U.: Nestor : Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland (2004) 0.01
    0.01036446 = product of:
      0.04145784 = sum of:
        0.04145784 = weight(_text_:und in 2786) [ClassicSimilarity], result of:
          0.04145784 = score(doc=2786,freq=28.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.36649725 = fieldWeight in 2786, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2786)
      0.25 = coord(1/4)
    
    Abstract
    Elektronische Publikationen oder, weiter gefasst, digitale Ressourcen nehmen im Wissenschaftsbetrieb wie im gesellschaftlichen Leben allgemein einen zunehmend höheren Stellenwert ein. An Bibliotheken wie auch an Archive und Museen stellt die rasante Entwicklung auf diesem Gebiet neue Anforderungen hinsichtlich der dauerhaften Bewahrung und Zugänglichkeit dieser digitalen Objekte. Das in der »scientific community« erarbeitete und digital publizierte Wissen muss auch unter den Bedingungen eines rasant stattfindenden Technologiewandels langfristig verfügbar gehalten werden, da der Wissenschaftsprozess eine regelmäßige Neubewertung älterer Wissensstände erfordert. Somit ist eine zufrieden stellende Lösung der Langzeitarchivierung eine wesentliche Bedingung der Konkurrenzfähigkeit des Bildungs- und Wissenschaftssystems und damit mittelbar auch der wirtschaftlichen Leistungsfähigkeit eines jeweiligen Landes. Wie in anderen Ländern" ist Langzeitarchivierung digitaler Objekte in den letzten Jahren ein wichtiges Thema in Deutschland geworden. Die Arbeit, die im Bereich von physischen Datenträgern geleistet wurde, vorgegeben durch den gesetzlichen Sammelauftrag Der Deutschen Bibliothek, hat deutlich werden lassen, dass Ähnliches für den ungleich größeren Bereich der Netzpublikationen wie e-books, e-Journals, elektronische Hochschulschriften oder thematische Websites (bzw. Online-Ressourcen) noch fehlte?' In Deutschland wurde das Thema zum ersten Mal 1995 in einem Positionspapier »Elektronische Publikationen« der Deutschen Forschungsgemeinschaft (DFG) aufgegriffen und als Aufgabenbereich der Virtuellen Fachbibliotheken benannt. In Anbetracht sowohl des Umfangs der Aufgabe als auch der föderalen Struktur Deutschlands mit der Verantwortlichkeit seiner Bundesländer für Wissenschaft und Kultur ist es folgerichtig, dass der Ansatz zu einer erfolgreichen Lösung dieser Probleme nur ein kooperativer sein kann. Aus der gemeinsamen Arbeit an konzeptionellen Fragen der künftigen Entwicklung digitaler Bibliotheken im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) getragenen Projektes »digital library-konzepte« ist eine Initiativgruppe Langzeitarchivierung hervorgegangen, deren Arbeitsplan im Rahmen eines 6-monatigen Folgeprojekts im Jahre 2002 auf zwei Workshops ausgewählten Experten des Informationswesens zur Diskussion gestellt wurden. Diese »Initialzündung« für eine kooperative Lösung der Langzeitarchivierung digitaler Ressourcen resultierte in einem Papier mit Abschlussempfehlungen für zentrale Komponenten einer kooperativen digitalen Langzeiterhaltungsstrategie für Deutschland?' Seit dem 1. Juli 2003 wird diese Initiative fortgesetzt von dem Nachfolgeprojekt mit dem offiziellen Titel »Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Ressourcen für Deutschland«, das von Mitte 2003 bis Mitte 2006 läuft und wiederum - als Teilprojekt des »Kompetenznetzwerks Neue Dienste, Standardisierung, Metadaten«-vom BMBF getragen wird." Da der offizielle Projekttitel wenig wiedererkennungsfreundlich ist, wurde als zusätzlicher Kurztitel für das Projekt das sprechende Akronym nestor gewählt, das aufgelöst für die englischsprachige und damit international verständliche Übersetzung des offiziellen Projekttitels steht: »NEtwork of Expertise in long-term STOrage of online Resources in Germany«. Zugleich symbolisiert der Name die Funktion des Kompetenznetzwerks als zentrale Beratungs-, Kontakt- und Serviceadresse in diesem Bereich. Die Namensähnlichkeit mit vergleichbar gelagerten Projekten wie ASTOR, das eine gemeinsame Speicherinfrastruktur schafft, die der Schweizerischen Landesbibliothek und dem Schweizerischen Bundesarchiv als gemeinsame technologische Basis für die Langzeitarchivierung elektronischer Dokumente dient, ist dabei nicht unwillkommen."
  10. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.01
    0.01036446 = product of:
      0.04145784 = sum of:
        0.04145784 = weight(_text_:und in 2789) [ClassicSimilarity], result of:
          0.04145784 = score(doc=2789,freq=112.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.36649725 = fieldWeight in 2789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=2789)
      0.25 = coord(1/4)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  11. Ortwein, A.: InfoPoint (2005) 0.01
    0.01036446 = product of:
      0.04145784 = sum of:
        0.04145784 = weight(_text_:und in 4319) [ClassicSimilarity], result of:
          0.04145784 = score(doc=4319,freq=28.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.36649725 = fieldWeight in 4319, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4319)
      0.25 = coord(1/4)
    
    Abstract
    Seit Oktober 2004 nimmt Die Deutsche Bibliothek als eine von fünf Institutionen am neu eingerichteten virtuellen Auskunftsdienst InfoPoint teil. Weitere Kooperationspartner sind die Stadtbücherei Frankfurt am Main, die Universitätsbibliothek Johann Christian Senckenberg, die USA-Bibliothek der Universität Mainz und die HeBIS-Verbundzentrale als Gruppenadministrator und -koordinator. InfoPoint ist Teil des globalen Informationsnetzwerks QuestionPoint. Ausgangspunkt für die Gründung dieser Onlineauskunft für die Rhein-Main-Region war ein von Diana Kresh (Leiterin der Public Service Collections der Library of Congress in Washington) im August 2003 in der Deutschen Bibliothek Frankfurt am Main gehaltener Vortrag zu dem Thema »Reference in a Digital World«, Darin stellte sie den Auskunftsservice QuestionPoint vor, der aus dem Projekt »Collaborative Digital Reference Service« der Library of Congress (LoC) hervorgegangen ist und begeisterte mit dem Thema sofort alle Anwesenden. Im Herbst 2003 gründete sich daraufhin die »QuestionPoint-Arbeitsgruppe Rhein-Main«, die im Mai 2004 ihr Konzept für einen virtuellen Auskunftsdienst den Entscheidungsträgern der einzelnen Teilnehmerbibliotheken vorlegte. Im Juni 2004 erfolgte die offizielle Gründung eines Konsortiums und im Oktober fiel der Startschuss zur Betriebsaufnahme von InfoPoint. QuestionPoint (QP) ist ein von der LoC und dem Bibliotheksdienstleister Online Computer Library Center (OCLC) gemeinschaftlich entwickelter Onlineauskunftsservice mit dem Ziel, ein weltweites Netzwerk von kooperierenden Bibliotheken zu bilden, um auf das breite Wissensspektrum der beteiligten Mitgliedsinstitutionen zugreifen zu können. Verantwortlich für die bibliothekarischen Anforderungen und Vorgaben ist die LoC, die technische Realisierung liegt bei OCLC, wo auch die Datenbank des Dienstes lokalisiert ist. Grundlage bildet eine leistungsfähige Software mit breitem Funktionsspektrum, die sowohl für die anfragenden Nutzerinnen und Nutzer als auch für die Auskunft gebenden Bibliothekarinnen und Bibliothekare alle Stufen und Schritte eines virtuellen Auskunftsvorgangs dokumentiert und transparent macht. Darüber hinaus können auf Wunsch moderne Kommunikationstechniken wie Chat und Webcams innerhalb des Systems ergänzend eingebunden werden. Mit Stand Februar 2005 sind 955 Institutionen aus zahlreichen Ländern weltweit an QP beteiligt. Darunter befinden sich die verschiedensten Bibliothekstypen, wie Nationalbibliotheken, Hochschulbibliotheken, öffentliche Bibliotheken, Spezialbibliotheken sowie zahlreiche nicht bibliothekarische Einrichtungen. Folgende in Deutschland ansässige Institutionen sind neben dem InfoPoint-Konsortium an OP beteiligt: Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Zentral- und Landesbibliothek Berlin, das Informations-, Kommunikations- und Medienzentrum Cottbus, die Universitätsbibliothek Chemnitz sowie die U.S. Army Europe Regional Library Heidelberg.
  12. Orna, E.: Information strategy in practice (2004.) 0.01
    0.010283169 = product of:
      0.041132677 = sum of:
        0.041132677 = weight(_text_:und in 3589) [ClassicSimilarity], result of:
          0.041132677 = score(doc=3589,freq=36.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.36362273 = fieldWeight in 3589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3589)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
    Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
  13. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.01
    0.0102422815 = product of:
      0.040969126 = sum of:
        0.040969126 = weight(_text_:und in 2996) [ClassicSimilarity], result of:
          0.040969126 = score(doc=2996,freq=70.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.3621769 = fieldWeight in 2996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2996)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
    Das Buch besteht aus zwei Teilen: Section 1 - Accessibility and Why It Matters Section 2 - Strategies and Techniques for Maximum Accessibility Im ersten Teil geben die Autoren eine knappe Einführung, in der sie erläutern, was Accessibility bedeutet, und stellen die gesetzlichen Grundlagen in den USA vor. Daneben werfen sie aber auch einen kurzen Blick auf die Situation in Kanada, Australien, der Europäischen Union (EU) und Großbritannien (das interessanterweise nicht zur EU gezählt, sondern gesondert behandelt wird). Der Schwerpunkt USA und die dortige Gesetzeslage ist auch für Leser aus dem deutschsprachigen Raum durchaus interessant dargestellt, erlaubt er doch den Vergleich mit der gesetzlichen Lage in der EU, die durchaus nicht einheitlich ist-in einigen Staaten gelten die Vorschriften der Barrierefreiheit auch für kommerzielle Web-Angebote, z. B. in Großbritannien. In den weiteren Kapiteln wird ein breites Spektrum abgedeckt: Es werden verschiedene Initiatitiven zur Barrierefreiheit in den USA vorgestellt ebenso wie ein business case, der zeigt wie der return an Investment für Barrierefreiheit in einem konkreten Fall aussehen kann. Slatin und Rush gehen davon aus, dass Barrierefreiheit für jedes Unternehmen aus Geschäftsinteresse sinnvoll ist, weil immer mehr Menschen immer älter werden und damit die Wahrscheinlichkeit von körperlichen Beeinträchtigungen zunimmt. Dann liefern sie eine Reihe von Argumenten, warum sich Barrierefreiheit für Unternehmen rechnet. Im Anschluss geben sie einen Überblick, wie man WebSites auf Barrierefreiheit testet, wobei sie betonen, dass automatisierte Prüfwerkzeuge nur in Kombination mit einer Evaluation durch Gutachter bzw. UsabilityTests verwendet werden sollten. Allerdings, so räumen Slatin und Rush ein, helfen diese Werkzeuge und Methoden nicht, die absolute Barrierefreiheit für jeden einzelnen Benutzer oder unter allen Umständen zu erreichen. Anhand von Beispielen zeigen Slatin und Rush, dass Textversionen der Inhalte keine wirkliche Alternative zu tatsächlich barrierefreien Inhalten sind und wie Alternativen für die barrierefreie Präsentation multimedialer Inhalte zur Verfügung stehen. Im ersten Teil sind verschiedene Kapitel mit Erfahrungsberichte des blinden John Slatin eingebunden, die praxisbezogen und anschaulich zeigen, auf welche Probleme Blinde und Sehbehinderte im Web stoßen, so zum Beispiel - dass es für einen blinden Benutzer in der beschriebenen Version praktisch unmöglich war, bei der beschriebenen Version von Amazon online einzukaufen. - dass sich bei ÖPNV-Web-Angeboten trotz des Einsatzes assistiver Technologien wie beispielsweise eines Bildschirmvorleseprogramms (screen reader) erhebliche Probleme mit Tabellen ergeben, die durch ihre zweidimensionale Struktur zwar für die Wahrnehmung mit dem Auge geeignet sind, nicht aber für die Wahrnehmung mit dem Ohr. Allerdings zeigen Screenshots, dass einige dieser Fahrpläne auch sehende Benutzer vor visuelle und intellektuelle Herausforderungen stellen, weil ihr Informationsdesign schlecht gemacht ist.
    - dass der Zugriff auf verschiedene bekannte Museums-Web-Sites durchdie eingesetzten Programmiertechniken effektiv verhindert wird, weil bestimmte Funktionen für ein Bildschirmvorleseprogramm oder eine Braillezeile nicht darstellbar sind. Dazu gehören unter anderem: die beschriebenen Flash-Animationen, automatische refreshs und redirects, server-side image maps. Weitere Problempunkte sind inkonsistentes Design und die sequenzielle Anordnung der Texte, die in einer Reihenfolge vorgelesen werden, die nicht der logischen Struktur entspricht. Verschiedene Kapitel im zweiten Teil bieten eine stark technisch ausgerichtete Handreichung, wie Inhalte und HTMLCode von Web-Angeboten barrierefrei gestaltet werden können. Slatin und Rush behandeln unter anderem folgende Aspekte: - wie Alternativtexte und Langbeschreibungstexte sinnvoll eingesetzt werden und wo besser auf sie verzichtet wird - wie visuelle Inhalte von Grafiken für Blinde sinnvoll und ansprechend beschrieben werden - welche Rolle die Vorlesereihenfolge spielt - welche Alternativen es für textuelle Beschreibungen gibt - wie HTML-Eingabeformulare und HTML-Tabellen barrierefrei gestaltet werden können - dass PDF-Dokumente nicht per se zugänglich sind und wie sie gestaltet werden müssen, damit sie tatsächlich barrierefrei sind - wie Multimedia-Material aufbereitet werden muss - wie Cascading Style Sheets eingesetzt werden können Das Buch zeichnet sich durch ein leicht lesbares Englisch und einen gut verständlichen Stil aus. Die zahlreichen Beispiele aus dem Web-Alltag machen es interessant zu lesen und geben ihm einen hohen Praxisbezug. Die Bezugnahme auf die Richtlinien der Web Accessibility Initiative (WAI) des World Wide Web Consortiums und auf die U.S. Section 508 ziehen sich wie ein roter Faden durch das Buch. Bereits die Einführung enthält eine übersichtliche Tabelle, welche die WAIRichtlinien und die Section 508 den Buchkapiteln gegenüberstellt, in denen sie behandelt werden. Jedes Kapitel listet am Anfang nochmals die WAI-Richtlinien und Absätze der Section 508 auf, die dort vertieft behandelt werden. Darüber hinaus wird dem Leser in sogenannten user experience chapters aus der Perspektive des blinden John Slatin als Betroffenem ebenso einfühlsam wie praxisbezogen nahegebracht, mit welchen Problemen Menschen mit Behinderungen im Web konfrontiert werden. Dies hilft auf anschauliche Weise, das Bewusstsein für die Notwendigkeit von Barrierefreiheit zu wecken, ohne dass der moralische Zeigefinger erhoben wird. Diese Aspekte machen die Lektüre des Buchs gleichermaßen lehrreich wie angenehm."
  14. ¬The history and heritage of scientific and technological information systems : Proceedings of the 2002 Conference (2004) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 5897) [ClassicSimilarity], result of:
          0.04071079 = score(doc=5897,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 5897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5897)
      0.25 = coord(1/4)
    
    BK
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Classification
    AN 92900 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Geschichte der Informationswissenschaft
    06.01 / Geschichte des Informations- und Dokumentationswesens
    RSWK
    Informations- und Dokumentationswissenschaft / Geschichte / Aufsatzsammlung (SWB)
    RVK
    AN 92900 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Geschichte der Informationswissenschaft
    Subject
    Informations- und Dokumentationswissenschaft / Geschichte / Aufsatzsammlung (SWB)
  15. Einführung in XML (2001) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 6984) [ClassicSimilarity], result of:
          0.04071079 = score(doc=6984,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 6984, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6984)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Internet Professionell 2002, H.1, S.18 (GO): "Der Autor bezeichnet XML als "die Schmiere am Rad der Informations-Infrastruktur". Das bezieht sich auf die Möglichkeiten der Sprache, Daten in einer auf jeden Bedarf zugeschnittenen Form zu speichern. Der Autor arbeitet mit vielen Beispielen, um die Struktur eines XML-Dokuments und den Umgang damit zu verdeutlichen. Er geht auf die Regeln der Sprache ein und erklärt, wie man Syntax-Schwierigkeiten vermeidet. Während der vordere Buchteil eine gute Einführung in XML bietet und somit auch für Einsteiger geeignet ist, richtet sich der hintere Teil an fortgeschrittenere Benutzer. Hier wird das Programmieren für XML thematisiert. So wird zum Beispiel beschrieben, wie man einen XML-Syntaxprüfer schreibt. Außerdem geht es um die praktische Arbeit mit XML: die Verwendung von Stylesheets, die Umwandlung von Dokumenten für spezielle Zwecke und die Internationalisierung von Dateien. "Einführung in XML" ist übersichtlich gegliedert und bietet im Anhang eine Aufstellung von Ressourcen und ein ausführliches Glossar."
  16. Twain, M.: ¬The awful German language : Die schreckliche deutsche Sprache (1996) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 1699) [ClassicSimilarity], result of:
          0.04071079 = score(doc=1699,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 1699, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1699)
      0.25 = coord(1/4)
    
    Abstract
    "Zu den subtilen Absonderlichkeiten, mit denen Mark Twain in Europa konfrontiert wurde, gehörte für ihn die deutsche Sprache. "Ich verstehe Deutsch so gut wie der Wahnsinnige, der es erfunden hat, aber ich spreche es am besten mit Hilfe eines Dolmetschers". Tatsächlich hat er versucht, Deutsch zu lernen - und seine kritischen Bemerkungen zeigten, daß er sich enrsthaft bemüht hat -, aber als er seine Kenntnisse anwenden wollte, verstand man ihn nicht so, wie er es erwartet hatte. Folglich machte er Vorschläge zur Verbesserung der deutschen Sprache, die er sich so kurz und bündig wünschte wie seine eigene. Andernfalls müßte man sie zu den toten Sprachen zählen. Auch hier galt ihm sein Amerika als leuchtendes Vorbild, und seine lachenden Leser bewiesen ihm durch den Erfolg seiner Reisebücher und Vorträge ihre Dankbarkeit dafür, daß er sie in ihren Vorurteilen gegen fremde Länder und Gebräuche bestätigt und bestärkt hatte."
  17. Twain, M.: ¬The awful German language : Die schreckliche deutsche Sprache (2003) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 1866) [ClassicSimilarity], result of:
          0.04071079 = score(doc=1866,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 1866, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1866)
      0.25 = coord(1/4)
    
    Abstract
    "Zu den subtilen Absonderlichkeiten, mit denen Mark Twain in Europa konfrontiert wurde, gehörte für ihn die deutsche Sprache. "Ich verstehe Deutsch so gut wie der Wahnsinnige, der es erfunden hat, aber ich spreche es am besten mit Hilfe eines Dolmetschers". Tatsächlich hat er versucht, Deutsch zu lernen - und seine kritischen Bemerkungen zeigten, daß er sich enrsthaft bemüht hat -, aber als er seine Kenntnisse anwenden wollte, verstand man ihn nicht so, wie er es erwartet hatte. Folglich machte er Vorschläge zur Verbesserung der deutschen Sprache, die er sich so kurz und bündig wünschte wie seine eigene. Andernfalls müßte man sie zu den toten Sprachen zählen. Auch hier galt ihm sein Amerika als leuchtendes Vorbild, und seine lachenden Leser bewiesen ihm durch den Erfolg seiner Reisebücher und Vorträge ihre Dankbarkeit dafür, daß er sie in ihren Vorurteilen gegen fremde Länder und Gebräuche bestätigt und bestärkt hatte."
  18. Oßwald, A.: Bangalore Commitment: Workshop on Electronic Publishing and Open Access : Developing Country Perspective: Bangalore, Indien, 2. bis 3. November 2006 (2007) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 290) [ClassicSimilarity], result of:
          0.04071079 = score(doc=290,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 290, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=290)
      0.25 = coord(1/4)
    
    Abstract
    Am 2./3. November 2006 fand in der südindischen IT-Metropole Bangalore ein Workshops statt, zu dem Teilnehmer aus den Ländern Indien, China, Südafrika und Brasilien eingeladen waren. Ziel des Workshops war zu verdeutlichen, welche Vorteile insbesondere Wissenschaftler und wissenschaftliche Einrichtungen, aber auch Informationsfachleute und nicht zuletzt Verleger durch Open Access (OA) haben können. Darüber hinaus wurde die Verabschiedung einer Selbstverpflichtung vorbereitet, die nun als "Bangalore Commitment" in einer Entwurfsfassung in den einschlägigen OAForen diskutiert wird. Hierbei wurde insbesondere auf die sog. Berliner Erklärung Bezug genommen. Die Schwerpunktsetzung auf "developing countries", also sog. Entwicklungsländer bzw. Schwellenländer, bringt eine spezifischer Perspektive in die Umsetzung des Open Access-Konzeptes. Durch den Aufbau gemeinsamer OA-Infrastrukturen und den Erfahrungsaustausch über das OA-Konzept soll die Sichtbarkeit der wissenschaftlichen Forschung und Entwicklung in den jeweiligen Ländern erhöht bzw. ihre Wahrnehmung in anderen Ländern z.T. erst ermöglicht werden. Umgekehrt will man aber auch durch diese Zusammenarbeit die OA-Bewegung weltweit stimulieren.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.183-184
  19. Burckhardt, D.: Historische Rezensionen online : Eine thematische Suchmaschine von Clio-online (2007) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 292) [ClassicSimilarity], result of:
          0.04071079 = score(doc=292,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 292, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=292)
      0.25 = coord(1/4)
    
    Abstract
    Historische Rezensionen online (HR O) ist eine auf geschichtswissenschaftliche Rezensionen fokussierte Suchmaschine. Sie berücksichtigt ausschließlich fachwissenschaftliche Besprechungen, die im Web veröffentlicht wurden und ohne Zugangsbeschränkungen im Volltext zur Verfügung stehen. Eingebunden in das Portal des DFG-geförderten Kooperationsprojektes Clio-online sind über eine einfache Suchmaske gegenwärtig mehr als 35.000 Rezensionen zu über 30.000 Publikationen im Volltext recherchierbar. Statt unter hohem Aufwand Daten zu erstellen oder manuell zu katalogisieren, werden bei HRO bereits vorhandene Texte und bibliografische Daten voll automatisiert gesammelt, verknüpft und in einem zentralen Suchindex aufbereitet. Die Spezialisierung auf eine Textsorte und die Anreicherung der Rezensionstexte mit den in der Verbunddatenbank des GBV bereits erfassten bibliografischen Informationen erlauben zudem zielgerichtete Anfragen nach bestimmten Autoren oder eingeschränkt auf einzelne Themenbereiche, ein Mehrwert für die Nutzerinnen und Nutzer von HRO gegenüber kommerziellen Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.169-172
  20. Boos, M.; Rack, O.; Schauenburg, B.: Wissenskommunikation in computergestützten Gruppen : Theoretischer Hintergrund und empirische Befunde (2008) 0.01
    0.010177697 = product of:
      0.04071079 = sum of:
        0.04071079 = weight(_text_:und in 1395) [ClassicSimilarity], result of:
          0.04071079 = score(doc=1395,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.35989314 = fieldWeight in 1395, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1395)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag geht der Frage nach, welche förderlichen und hinderlichen Bedingungen für die Wissenskommunikation in Gruppen bestehen. Die Leistung einer Arbeits- oder Lerngruppe ist abhängig von verschiedenen Input- und Prozessvariablen. Auf der Inputseite sind vor allem der Aufgabentypus und das Ausmaß der Heterogenität der Gruppe, z.B. bezüglich der Wissensverteilung, zu nennen. Im Verlauf ihrer Arbeit müssen Gruppen verschiedene Schritte der Informationsverarbeitung durchlaufen, bei denen Prozessverluste auftreten können. In der Phase des Informationsaustausches tragen die Gruppenmitglieder ihre Informationen zusammen, um auf der so entstehenden Wissensbasis ein Problem zu lösen oder eine Entscheidung zu fällen. Insbesondere der Austausch ungeteilter Informationen verschafft der Gruppe einen nominellen Vorteil gegenüber dem Individuum. In zahlreichen Studien konnte jedoch gezeigt werden, dass Gruppen überwiegend solche Informationen diskutieren, die allen Mitgliedern bereits vor Beginn des Informationsaustauschs bekannt waren (sog. geteilte Information). Der mangelnde Austausch ungeteilter Information führt häufig zu suboptimalen Gruppenergebnissen. Der Prozess der Wissenskommunikation kann jedoch durch gezielte Interventionen und unterstützende Moderation der Gruppenprozesse verbessert werden.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.41-48

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 732
  • m 298
  • el 95
  • s 91
  • i 21
  • n 17
  • x 11
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications