-
Kuhlen, R.: Wie viel Virtualität soll es denn sein? : Zu einigen Konsequenzen der fortschreitenden Telemediatisierung und Kommodifizierung der Wissensmärkte für die Bereitstellung von Wissen und Information durch Bibliotheken (2002)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 2211) [ClassicSimilarity], result of:
0.05273014 = score(doc=2211,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 2211, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2211)
0.25 = coord(1/4)
- Abstract
- Ein im April erschienener F.A.Z.-Artikel, »Abendländisches Schisma«, zu Tendenzen der Informationsversorgung, auch mit Blick auf die Arbeit von Bibliotheken, erregte seinerzeit die Gemüter und führte, sowohl in den Leserbriefspalten der F.A.Z. wie in den bibliothekarischen Listen, zu teilweise heftigen Reaktionen vor allem im Bibliothekswesen. In diesem und im folgenden Heft stellt der Autor seine Thesen und Begründungszusammenhänge zur Diskussion.
- Content
- Telemediatisierung und Kommodifizierung der Bereiche von Wissen und Information beeinflussen zunehmend auch die Infrastrukturen für die Informationsversorgung in Wissenschaft und Ausbildung. Es wird diskutiert, wodurch das für Wissenschaft und Ausbildung zentrale Ziel des freien Zugriffs auf Wissen gefährdet, aber auch befördert wird. Zahlreiche Initiativen, Projekte und Deklarationen machen deutlich, dass im öffentlichen und privaten Bereich die Herausforderungen der virtuellen Organisation der Informationsversorgung aufgegriffen werden, ohne dass allerdings bislang eine überzeugende Gesamtkonzeption vorliegt, weder in makrostruktureller Hinsicht (wie sich Bibliotheken im kompetitiven Geflecht der postprofessionellen Informationsmärkte positionieren sollen) noch in mikrostruktureller Hinsicht (welche neuen integrierte Formen der Infrastruktur an Hochschulen sich entwickeln sollen). Die auf Effizienz ausgerichteten Aktivitäten von Verlagen, von Buchhandel, Fachinformationssystemen, Vermittlern und Content Providern des Internet werden exemplarisch, vor allem mit Blick auf die Volltextversorgung, vorgestellt, und ihnen werden die eher binnen-bibliothekarischen Maßnahmen gegenübergestellt. Im Ausgang von Daten aus der Bibliotheksstatistk 2001 zum Aufwand für Bibliotheken und deren Nutzung wird ein Gedankenexperiment angestellt, ob bei Wegfall der bibliothekarischen Leistung der Bedarf nach Informationsversorgung direkt von jedem Wissenschaftler durch Nutzung der Marktangebote gedeckt werden könnte. Unter Effizienzgesichtspunkten kann das durchaus erfolgreich sein. Die dabei fast unvermeidbar zum Einsatz kommenden Lizenzierungs-, Kontroll- und Abrechnungsverfahren (über Digital Rights Management) konfligieren aber mit dem Ziel der offenen und freien Nutzung und sind sowohl den Zielen der Wissenschaft als auch, langfristig, den Innovationszielen der Wirtschaft konträr. Alternativ wird diskutiert, inwieweit die Selbstorganisationsformen der Wissenschaft (OAI, SPARC, BOAI und so weiter) eine umfassende substituierende oder komplementäre Alternative der Informationsversorgung darstellen können. Als mikrostrukturelle Konsequenz wird die Integration der bisherigen weitgehend getrennten Einrichtungen, also die langfristige Aufhebung der autonomen Bibliotheks-, Rechenzentrums- oder Multimedia-Einheiten und die schrittweise Zusammenlegung in leistungsfähige Infrastrukturen für Information und Kommunikation, als zwingend angesehen, wobei dem Wissensmanagement, einschließlich des Rights Management, eine zentrale Funktion zukommt. Die neue Infrastruktur kann, auch angesichts technologischer Entwicklung der Digitalisierung und des Publishing an Demand, von dem bisherigen umfassenden, ohnehin kaum noch einzulösenden Kultursicherungsauftrag befreit werden; dieser kann von einigen wenigen zentralen Einrichtungen wahrgenommen werden. In makrostruktureller Hinsicht müssen klare Alternativen zur fortschreitenden Kommodifizierung von Wissen und Information entwickelt werden. Die Gesellschaft muss dem Charakter des Wissens als »Commons« Rechnung tragen. Es muss eine Publikations- und Distributions-/Zugriffs-Infrastruktur geschaffen und finanziert werden, die das Bedürfnis nach freiem und offenem Austausch produzierten Wissens befriedigen kann, in erster Linie durch die virtuelle (verteilte, vernetzte) Organisation von umfassenden Aufbereitungs-, Nachweis- und Auslieferungsleistungen, weitgehend aus der Wissenschaft selber. Benötigt wird das transparente umfassende Wissenschaftsportal der Informationsversorgung (in Erweiterung der Idee der koordinierten virtuellen Bibliotheken). Nicht zuletzt wird für das gesamte Gebiet von Wissen und Information eine neue koordinierende Infrastruktur benötigt.
-
Klinge, M.; Schüler, M.: ¬Das DFG-Projekt zur Digitalisierung der seltenen Bücher, Karten und Manuskripte zur Erforschung Sibiriens aus der Sammlung Asch : Ein Beitrag der Niedersächsischen Staats- und Universitätsbibliothek Göttingen zum multimedialen Digitalisierungsprojekt der Library of Congress (2003)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 2689) [ClassicSimilarity], result of:
0.05273014 = score(doc=2689,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 2689, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2689)
0.25 = coord(1/4)
- Abstract
- Mit finanzieller Unterstützung der DFG wurden in dem Projekt "Digitalisierung der seltenen Bücher, Karten und Manuskripte zur Erforschung Sibiriens aus der Sammlung Asch" wissenschaftshistorisch bedeutsame Literatur- und Kartenmaterialien elektronisch zugänglich gemacht, die sich mit der Entdeckung und Erschließung des nordasiatischen Raumes im 18. und frühen 19. Jahrhundert befassen. In Zusammenarbeit mit dem multimedialen amerikanischrussischen Partnerprojekt "Meeting of Frontiers" (http://frontiers.loc.gov/), welches von der Library of Congress in Washington geleitet wird (Abb. 1), werden die wirtschaftspolitischen Ausdehnungen der europäischen Staaten sowie der Kolonisationsprozess in Amerika und Nordasien mit literatur- und medienhistorischen Originaldokumenten Online recherchierbar bereitgestellt. So können nicht nur die forschungsrelevanten Göttinger Materialien, sondern auch inhaltlich ergänzende, sehr seltene Bücher, Photographien, Karten und anderes Quellenmaterial von international bedeutenden Bibliotheken gemeinsam erschlossen und dem Benutzer digital frei zugänglich angeboten werden. Mit diesem Digitalisierungsprojekt soll vor allem die Forschungsarbeit einschlägiger wissenschaftshistorisch und ethnologisch ausgerichteter Institute unterstützt und die Versorgung mit forschungsrelevanter Quellenliteratur nachhaltig verbessert werden. Vor dem Hintergrund der internationalen Zusammenarbeit wurde das Quellenmaterial durch Erläuterungen zum historischen und wissenschaftlichen Stellenwert mit Hilfe von Annotationen, Sekundärmaterial und begleitenden Texten zu Sammlung und Werken aufbereitet. Im "Meeting of Frontiers" Projekt werden zwei wesentliche Ziele verfolgt. Zum Einen soll das Originalmaterial von verschiedenen Bibliotheken unter dem bereits erläuterten thematischen Rahmen auf digitaler Ebene zu einer Sammlung zusammengeführt werden. Neben der Library of Congress sind vor allem die Staatsbibliothek in Moskau, die Nationalbibliothek in St. Petersburg und die University of Alaska in Fairbanks an diesem Projekt beteiligt. Zum Anderen wird damit Lehrmaterial in elektronischer Form für jedermann über das Internet frei zugänglich bereitgestellt. Das Projekt "Meeting of Frontiers" ist Bestandteil des "American Memory" Programms (http://memory.loc.gov/) zum Aufbau einer nationalen digitalen Bibliothek in Amerika durch die Library of Congress. Innerhalb dieses Programms werden digitale Sammlungen zu unterschiedlichen Themen wie Geschichte, Politik, Wirtschaft, Geographie usw. online abrufbar angeboten. Unter den derzeitigen 7 Millionen Digitalisaten von "American Memory" befinden sich neben gedruckten und handschriftlichen Werken auch Karten, Photographien, Filme und Tonaufzeichnungen. Digitale Materialien aus den verschiedensten Quellen werden von der Library of Congress als "Online Galerien" (http://www.loc.gov/exhibits/) zu Internetausstellungen zusammengestellt.
Als internationales Projekt ist die "Meeting of Frontiers" Web-Seite zweisprachig, in englisch mit lateinischen Buchstaben und in russisch mit kyrillischen Buchstaben ausgelegt (Abb. 1). Die erläuternden Begleittexte können im Internet-Browser auch in Russisch gelesen werden und die Web-Seite lässt sich mit einer russischen Computer-Tastatur nutzen. Alle Digitalisate sind individuell bibliographisch aufgenommen und über Metadatensätze im amerika-üblichen MARC-Format recherchierbar. Gedruckte und handschriftliche Werke werden im Rahmen des Digitalisierungsprozesses an der Library of Congress mit 300 dots per inch (dpi) eingescannt. Reine Textseiten werden bitonal, schwarz-weiß Abbildungen als 8 bit Grayscale-Images und farbige Seiten als 24 bit Color-Images im TIFF Format digitalisiert und archiviert. Ein von der Firma "LizardTech" entwickeltes Software-Programm (http://www.lizardtech.com/) erlaubt die Komprimierung der Image-Dateien in ein spezielles Dateiformat MrSID (Multi-Resolution Seamless Image Database), was die schnelle Datenübertragung über das Internet und die anschließende Dekomprimierung in ein hochauflösendes TIFF auf dem PC des Nutzers ermöglicht. Neben dem Aufrufen von verschiedenen Textseiten eines Werkes besteht die Möglichkeit zum Navigieren und schnellen Hineinzoomen in Details auf Kartenwerken und Bildern über den InternetBrowser. Im Gegensatz zu dem frei verfügbaren Material der Library of Congress, können die von anderen Bibliotheken bereitgestellten Digitalisate aus urheberrechtlichen Gründen nicht uneingeschränkt heruntergeladen werden.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.05273014 = score(doc=5002,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.25 = coord(1/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Hillenbrand, T.: Googles Zehn Gebote (2005)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 5314) [ClassicSimilarity], result of:
0.05273014 = score(doc=5314,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 5314, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5314)
0.25 = coord(1/4)
- Content
- "Und Mo der User irrte einsam durch die kalte Betonwüste und er wusste nicht wo Norden noch Süden war. "Weh mir", rief er, "ausgezogen war ich, den Tempel des Heiligen Saturn zu finden, auf dass mir seine Hohepriester einige jener kleinen Silberscheiben verkauften, zu wohlfeilen Preisen. Doch nun bin ich ganz verloren und weiß nicht, wohin ich meine Schritte lenken soll." Es begab sich aber, dass Mo an einer Taverne vorbeikam. "Preiset den Herrn", rief er aus, "diese bescheidene Tränke vermag mir nicht nur ein wohlschmeckend Heißgebräu mit Vanillearoma zu bereiten. Vermittels ihrer vermag ich auch die Götter des Internet um Rat anzuflehen." Und so öffnete er sein Ränzel, entnahm sein gesegnetes iBuch von Antiochia und klinkte sich in den Hotspot des Kaffeehökers ein. Alsdann betete Mo zu Google. Und er rief: "O allwissender Google. Ich suche den Tempel des edlen Saturn oder des erhabenen Conrad, auf dass ich einige Silberlinge zur Archivierung meiner Schriften erwerben könnte." Und so tippte Mo die Wörter "DVD Berlin" in sein magisches Büchlein. Und als er die Return-Taste betätigte, da vernahm er in der Ferne ein Donnergrollen und der Himmel verfinsterte sich. Und ein Blitz zuckte vom Himmel und fuhr in Mos treues iBuch und der Akku fing Feuer. Und es war viel Wehklagen und Geschrei in der Taverne. Diese Zeichen des Herrn trieben die Furcht in Mos Herz und er fiel vor dem brennenden Zauberbüchlein auf die Knie. Und plötzlich wurde er in den lodernden Flammen des mächtigen Google Antlitz' gewahr. Und jener sprach: "Mo, du Idiot! Du willst der Prophet der Suchmaschinen sein, aber du weißt ja nicht mal, wie man eine vernünftige Abfrage formuliert!" Mo warf sich zu Boden: "Allmächtiger, ich - ...". "Klappe, Mo!", zischte das iBuch. "Täglich wollen die Adepten Antworten von mir, doch kaum einer ist in der Lage, seine Fragen richtig zu stellen. Das nervt höllisch. Empfange nunmehr meine zehn Gebote der Internet-Suche. Und künde den anderen Usern davon immerdar." Und er sprach: Und Mo hob die Hände zum Himmel und rief: "Hosianna! Lob und Ehre sei Dir, O mächtiger und preisenswerter Gott der Suche. Umgehend will ich Deine Gebote meißeln in feinsten Marmor, auf dass ein jeder sie schaue!" Und ein weiteres grollendes Seufzen erschütterte die Taverne. "Marmor? Du hast es wahrlich nicht mit Löffeln gefressen, Mo. Poste es irgendwo im Netz, das geht viel schneller." Und so geschah es."
- Footnote
- Die 10 Google-Gebote: Du sollst ... 1. ... nie weniger als drei Begriffe eingeben 2. ... Artikel und Hilfsverben ächten 3. ... Nomen bevorzugen 4. ... "Phrasen in Anführungszeichen" setzen 5. ... Wörter gebrauchen, die du in deinen Ergebnissen zu finden erwartest 6. ... die Syntax des Heiligen Boole in Ehren halten 7. ... alles andere klein schreiben 8. ... auch die ehrwürdigen Verzeichnisse befragen 9. ... andere Suchmaschinen haben neben mir 10. ... auch der Auskunft und dem Telefon huldigen
-
Firley, S.; Klasing, M.; Lülsdorf, L.; Mikosch, M.; Nagelschmidt, M.: Neue Plattform für Indexierung und Retrieval : Studenten erstellen die Webseite »iXtrieve« (2008)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 2826) [ClassicSimilarity], result of:
0.05273014 = score(doc=2826,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 2826, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2826)
0.25 = coord(1/4)
- Abstract
- An der Fachhochschule Köln haben sich fünf Studierende des Diplom-Studiengangs Bibliothekswesen mit dem Aufbau einer Webseite für die Themenkomplexe Indexierung und Information Retrieval* befasst. Ein »Eingangsportal für alle damit verbundenen Fragestellungen« war in der Aufgabenstellung vorgesehen, die Rahmenbedingungen waren vorgegeben: Nutzung des unter Open-Source-Lizenz stehenden Content-Management-Systems Joomla, eigenverantwortliche Projektorganisation und Gruppenarbeit.
- Content
- "Knapp ein Jahr später findet der Interessierte unter www. indexierung-retrieval.de ein ausbaufähiges Fundament zu diesen Fragestellungen. Das Hauptziel waren eigene Inhalte, von Stud ierenden des Fachs selbstständig erarbeitet und verfasst. Mit voranschreitendem Projektverlauf und wechselnden verantwortlichen Projektgruppen soll damit mittelfristig ein repräsentatives Spektrum an Beiträgen aus dem Umfeld von Indexierung und Retrieval zur Verfügung stehen. Eine einführende Lektüre in die Welt der semantischen Netze, des automatischen Abstracting und der automatischen Indexierung ist bereits möglich. Die umgesetzte Darstellungsform solcher mitunter interdisziplinärenArtikel istanwendungsorientiert und mit deutlichem Bezug zum Informations- und Dokumentationsbereich, speziell zum Bibliothekswesen. Ein tieferer Einstieg in die Themen ist möglich, denn strukturierte und kommentierte Linklisten weisen den Weg zu Hochschulen, Forschungseinrichtungen, Firmen und anderen relevanten Institutionen. Links zu stillgelegten Webseiten oder fehlerhafte Verknüpfungen werden dabei vom Content-Management-System automatisch erkannt und an den Administrator gemeldet. Neben Webressourcen sind auch Nachweise der einschlägigen Fachliteratur berücksichtigt, zum Teil mit einem Direktlink zum elektronischen Volltext. Das Portal bietet außer der thematischen Gliederung auch eine umfangreiche, annotierte Linkliste, die über zahlreiche Such- und Navigationsmöglichkeiten verfügt. Diese ist am Institut für Informationswissenschaft an der Fachhochschule Köln über einen längeren Zeitraum aufgebaut und nun im Rahmen dieses Projekts in iXtrieve eingebunden und erweitert worden. Weiterhin eingebaut wurde die Rubrik »Personen und Institutionen«, welche die Funktion eines Kompetenznetzwerks übernimmt.
Eine exponierte Position haben die Fachzeitschriften bekommen. Von der Linkliste losgelöst sind die bibliografischen Daten von derzeit 29 internationalen Fachzeitschriften separat zusammengeführt, gegebenenfalls mit einem Link zur Online-Ausgabe versehen, und im Volltext suchbar. In der Nähe der Fachzeitschriften findet der Besucher einen Link auf die Datenbank der Literatur zur Inhaltserschließung - ein Angebot, das ebenfalls am Institut für Informationswissenschaft entstanden ist und durch Prof. Winfried Gödert betreut wird. Diese umfangreiche Sammlung weist vor allem unselbstständig erschienene Literatur nach und ist durch eine eigene Retrievaloberfläche zugänglich. Umfangreiches Glossar Zu den ambitionierten Vorhaben gehört das Glossar, das derzeit rund hundert Einträge umfasst, von »A« wie »Abstract« bis »W« wie »Warenklassifikation«. Diese Vokabularsammlung ist in ihrem Wachstum an die thematischen Textbeiträge gekoppelt und soll neben der Erläuterung einzelner grundlegender Begriffe vor allem einen Überblick über die in iXtrieve verwendete Terminologie verschaffen. Das Projekt wurde im Wesentlichen dezentral durchgeführt und durch regelmäßig stattfindende Projektsitzungen abgerundet. Bei gleichen Rechten und gleichen Pflichten für alle Teilnehmer herrschte ein hoher Kommunikationsbedarf, sodass ein virtueller Treffpunkt nötig war. Die frei verfügbare Software »eGroupWare« wurde dazu auf einem Institutsserver eingerichtet und ermöglichte nicht nur einen reibungslosen Austausch, sondern auch das Hochladen der Sitzungsprotokolle und schriftlich fixierter Ideen einzelner Teilnehmer. iXtrieve wird in Kürze durch eine nachfolgende Projektgruppe weiter ausgebaut werden. Die Projektdauer ist mit zwei Semestern bemessen, während derer die Projektteilnehmer den Umgang mit Joomla erlernen, ihre Arbeitsabläufe planen und organisieren und anschließend iXtrieve kontinuierlich zu einer Kompetenzplattform für Indexierung und Retrieval weiterentwickeln."
-
Migl, J.: Verteilte Ressourcen, zentraler Nachweis: elektronische Dokumente und das "Zentrale Verzeichnis digitalisierter Drucke" (zvdd) : Möglichkeiten und Grenzen eines Portals (2008)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 2848) [ClassicSimilarity], result of:
0.05273014 = score(doc=2848,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 2848, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2848)
0.25 = coord(1/4)
- Abstract
- Einleitung Natürlich ist das Projekt zvdd im Vergleich zu einem Langzeitunternehmen wie dem VD 17, über das Frau Sommer eben sprach, ein echtes Kurzzeit-Projekt. Dennoch: wer schon fast 30 Monate Förderung hinter sich und gerade noch ein gutes halbes Jahr vor sich hat, kann nur noch sehr begrenzt über Absichten, Pläne und Ziele sprechen, die er noch erreichen will. Man wird vor allem Ergebnisse und vielleicht sogar schon ein erstes vorgezogenes Resümee erwarten. Ich will das in meinem Referat versuchen und dabei vor allem den Blick auf die Ausgangs- und Rahmenbedingungen und die besonderen Herausforderungen werfen, mit denen die Projektnehmer in der Vergangenheit zurechtkommen mussten. Ich glaube, dass das nicht zuletzt deswegen gerechtfertigt ist, weil wir ganz aktuell vor der Bildung neuer und größerer Portallösungen stehen und die in zvdd gemachten Erfahrungen auch für diese wertvoll sein können.
- Content
- Voraussetzungen und Zielvorgaben Im Laufe der letzten ungefähr 10 Jahre sind in Deutschland zahlreiche Digitalisierungsprojekte durchgeführt worden. Die Mehrzahl davon war und ist an Bibliotheken angesiedelt, daneben stehen aber nicht wenige Projekte, die von Akademien, MaxPlanck-Instituten, einzelnen Universitätsinstituten und anderen Projektnehmern beantragt und durchgeführt wurden. Selbst wenn man die Zählung auf die DFG-finanzierten Projekte beschränkt, ist man schnell in der Größenordnung von weit über 100 Projekten, ohne Berücksichtigung der mindestens noch einmal so vielen von anderer Seite unterstützten oder privat durchgeführten Unternehmungen2. Was am Beginn der großen Digitalisierungskampagnen noch durchaus gewollt war, nämlich die Förderung unterschiedlicher Verfahren und Methoden, die Anwendung verschiedener technischer Lösungen bei Hard- und Software, die freie Hand für die Projektleiter bei der Entwicklung von Zugriffsmöglichkeiten, bei Erschließungsmethoden und Navigationsinstrumenten, entpuppte sich jedoch nach und nach als strategischer Nachteil. Gewiss: Man hatte auf diese Weise eine Vielzahl an Erfahrungen sammeln und für die Formulierung von Empfehlungen nutzen können. Vor allem bei der Ausarbeitung von technischen Standards mag es hilfreich gewesen sein, auf möglichst viele unterschiedliche Erfahrungen zurückgreifen zu können. Im Ergebnis aber entstanden so viele Realisierungen, wie es Projekte gab. Jedes stand für sich mit einem individuellen Auftritt im Netz und wartete auf Kundschaft, die - wie wir heute wissen - aber nicht in der erhofften Frequenz die neuen Angebote nutzte. Spätestens bei einem Seitenblick auf die parallel entstehenden Strukturen im Ausland musste die sehr bunte deutsche Digitalisierungs-landschaft mehr und mehr als ein eher bedenkliches Konzept erscheinen. Der Verzicht auf Standardisierung und Zentralisierung, das Nebeneinander von jeweils für die Projekte sinnvollen, aber in der Regel nicht nachnutzbaren Projektarchitekturen begann sich zu rächen, denn die potenziellen Nutzer der bereitgestellten Dokumente fanden diese entweder nicht oder verloren schnell die Lust, in jedem neuen Projekt wieder mit dem Studium der Betriebsanleitung zu beginnen. Als sich dann vor dem Hintergrund des Erfolges von Google die Vorstellung durchsetzte, das weltweite Netz lasse sich leicht und vollständig von einem einfachen Suchschlitz aus durchkämmen, wuchs hierzulande der Druck, hinter den vielen bunten Mosaiksteinchen doch noch das eigentliche Bild erkennbar werden zu lassen. Ein zweifellos lohnendes Ziel sind doch die in den Projekten erarbeiteten Angebote und Standards zumeist von hoher Qualität. Der Plan fügte sich zudem leicht in die aktuellen strategischen Zielvorstellungen von einer homogenen digitalen Bibliothek Deutschland, sogar einer europäischen digitalen Bibliothek oder gemeinsamen Portalen von Bibliotheken, Museen und Archiven, in welchen die in den Einzelprojekten erzielten Ergebnisse letzten Endes aufgehen sollen.
- Footnote
- Vortrag anlässlich der 16. gemeinsamen Bibliothekstage für Niedersachsen und Sachsen-Anhalt "Das historische Buch in der modernen Bibliothek" am 08.09.2007 in Halle
- Source
- Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2008, H.138, S.17-20
-
Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 573) [ClassicSimilarity], result of:
0.05273014 = score(doc=573,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 573, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=573)
0.25 = coord(1/4)
- Abstract
- Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
- BK
- 85.20 / Betriebliche Information und Kommunikation
- Classification
- 85.20 / Betriebliche Information und Kommunikation
- Footnote
- Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
-
Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009)
0.01
0.013182535 = product of:
0.05273014 = sum of:
0.05273014 = weight(_text_:und in 1329) [ClassicSimilarity], result of:
0.05273014 = score(doc=1329,freq=54.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44565287 = fieldWeight in 1329, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1329)
0.25 = coord(1/4)
- Abstract
- In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
- Content
- I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
- Footnote
- Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
-
Diedrichs, R.: ¬Die GBV Verbundzentrale : von der Katalogisierungszentrale zum modernen Dienstleistungsunternehmen (2000)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 6518) [ClassicSimilarity], result of:
0.052269787 = score(doc=6518,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 6518, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6518)
0.25 = coord(1/4)
- Abstract
- Die Gründung des GBV stellte 1996 einen in zweierlei Hinsicht einmaligen Vorgang in der Geschichte der Bibliotheksverbünde dar: die Vereinigung zweier bis dahin unabhängiger Bibliotheksverbünde und den Abschluss eines Verwaltungsabkommens zwischen sieben Bundesländern innerhalb eines Jahres. Einer der wesentlichen Gründe für diesen Zusammenschluss war, dass die beiden bis dahin unabhängigen Verbundzentralen allein nicht mehr in der Lage waren, die urch die Einführung der lokalen Bibliothekssysteme und endbenutzerorientierten Dienstleistungen neu entstehenden Aufgaben zu erfüllen. In den der Vereinigung vorausgehenden Verhandlungen wurde sehr schnell klar, dass der neue Verbund nur dann erfolgreich sein konnte, wenn es gelang für die Verbundzentrale Finanzierungs- und Organisationsformen zu finden, die sie von Einzelinteressen der Länder unabhängig machte. Die Verbundzentrale Göttingen war zu diesem Zeitpunkt Abteilung der SUB Göttingen und damit Teil der Universität Göttingen. Im Verwaltungsabkommen wurde festlegt, dass die Fachaufsicht bei der Verbundleitung, die Dienstaufsicht jedoch beim Direktor der SUB Göttingen bzw. dem Präsidenten der Universität liegt. Diese Konstruktion hatte jedoch zwei entscheidende Nachteile: Bei divergierenden Interessen zwischen Verbund und SUB / Universität Göttingen sind sachfremde Entscheidungen zu Gunsten der Bibliothek bzw. Universität nicht auszuschließen. Hinsichtlich der finanziellen Flexibilität verhindert die bestehende Einbindung in das kameralistische Haushaltssystem die notwendige Beweglichkeit und Anpassungsfähigkeit
- Series
- Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
- Source
- Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
-
Schulz, U.: Search engine usability : über die Nutzungsqualität von Suchmaschinen (2001)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 6776) [ClassicSimilarity], result of:
0.052269787 = score(doc=6776,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 6776, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6776)
0.25 = coord(1/4)
- Abstract
- Web Usability konnte sich als Forschungsbereich zunächst nur in größeren Firmen der Internet-Branche wie z. B. Icon Medialab etablieren. Mit zunehmender Konkurrenz und ersten Pleiten im E-Commerce entsteht die Einsicht oder bittere Erfahrung, dass bunte, multimediale Internetpräsenz nicht alles ist: Die Nutzungsqualität von Websites tritt in den Vordergrund und damit ein neuer Arbeitsmarkt für Informationsarchitekten und HCI- bzw. Usability-Spezialisten. Suchmaschinen sind eine besondere Kategorie von Website. Sie entstehen in einem Spannungsfeld zweier unterschiedlicher Interessen: Mit kommerziellen Websites teilen sie den Wettbewerb um Kunden und die Art der Kunden: den ungeduldigen gelegentlichen Anwender. Mit der akademischen Welt teilen sie das forschende Bemühen um die Optimierung von Features und Funktionen und die déformation professionelle der Eingeweihten. Am Beispiel zweier Untersuchungen wird deutlich, wie es der richtige 'Methodenmix' ermöglicht, bei der Evaluation der Nutzungsqualität von Suchmaschinen ganz unterschiedlicher Art (a) diesen Interessenkonflikt bewusst zu machen, (b) Empathie für die Nöte der Kunden zu entwickeln und c) allgemeingültige Kriterien zur Entwicklung gebrauchstauglicher Suchmaschinen aufzustellen. Beide Untersuchungen fanden im Rahmen des Projekts Jorschung und Forschungsumgebung für Web Usability« unter Mitwirkung von Studierenden am Fachbereich Bibliothek und Information der FH Hamburg statt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Kerres, M.: Multimediale und telemediale Lernumgebungen : Konzeption und Entwicklung (2000)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 37) [ClassicSimilarity], result of:
0.052269787 = score(doc=37,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 37, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=37)
0.25 = coord(1/4)
- Footnote
- Rez. in: c't 2001, H.12, S.244 (J. Loviscach): "In den USA sprießen virtuelle Universitäten wie Pilze aus dem Boden. In Deutschland lassen Politiker Steuergelder in ernst zu nehmender Höhe für computerund netzgestützte Projekte an Schulen und Hochschulen springen - am elektronischen Lernen muss wohl etwas dran sein. Kritische Literatur zu diesem Themenkreis hat bislang allerdings Seltenheitswert: Wer sich als Leser nicht mit unbegründeten Floskeln oder flauen Kochrezepten für Multimedia-Software zufrieden gibt, muss lange suchen. Michael Kerres, Professor für Pädagogische Psychologie mit Schwerpunkt Medien an der Ruhr-Universität Bochum und obendrein Gründer der Tele-Akademie der Fachhochschule Furtwangen, ebnet mit seinem Buch den Weg für eine differenzierte Auseinandersetzung. Der dumpfen Schwarzweißmalerei à la 'Lehrer sind zu teuer' contra 'Computer sind dumm' stellt er die Ergebnisse der pädagogischen Forschung, die Erfahrungen aus der immerhin 40-jährigen Geschichte des computerunterstützen Lernens und Lehrens sowie den Stand der Technik entgegen. 'Multimediale und telemediale Lernumgebungen' spannt einen weiten Bogen. Dieser beginnt bei der Geschichte von Ansätzen wie Behaviourismus und Konstruktivismus sowie entsprechender Lernsoftware und führt über Konzeptionsfragen, insbesondere der Zielanalyse, bis hin zu konkreten Entwicklungsverfahren mit Prototypen und Evaluation. Sogar kurze Handreichungen etwa zur Filmproduktion und zur Kostenschätzung fehlen nicht. Der Schreibstil gerät hier und dort so akademisch-sperrig wie schon der Titel - hier liegt vielleicht eine Verbesserungsmöglichkeit für die nächste Auflage. Erfreulich ist, dass Kerres das Für und Wider nicht nur am grünen Tisch abwägt, sondem auf unzählige Studien zugreift und diese sogar noch kritisch einordnet. Er hütet sich vor Pauschalisierungen: Für ihn ist ein Medium nicht als solches gut oder schlecht; vielmehr lässt sich dessen Qualität nur an Hand der Kommunikationsziele beurteilen."
-
Kliemt, A.: Vom VÖBB zum WorldCat : DER WWW-OPAC des VÖBB im funktionalen Vergleich mit anderen Web-OPACs (2002)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2174) [ClassicSimilarity], result of:
0.052269787 = score(doc=2174,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2174, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2174)
0.25 = coord(1/4)
- Abstract
- Recherche in Bibliothekskatalogen war, zumindest in deutschen Bibliotheken, bis zur Mitte des 20. Jahrhunderts in der Regel Sache des Personals, eine wirklich erfolgreiche Recherche meist Spezialisten vorbehalten. Nur diese waren in der Lage, häufig unter Einbeziehung diverser Hilfsmittel, Titelwünsche der Leser nach den jeweiligen Katalog- und Bibliotheksregeln in entsprechende Kataloganfragen umzusetzen. Als dann den Bibliothekskunden selbst nach und nach der Zugang zu diesen Zettelkatalogen in den Bibliotheken eröffnet wurde, war für eine erfolgreiche Suche meist "guter Rat teuer". Hilfestellung und "guter Rat", oft schon bei einer simplen Titelsuche wie "Schuld und Sühne" nötig, konnte vom uneingeweihten Leser direkt vor Ort in der Bibliothek eingeholt werden. Elektronische Formen der Kataloge in Bibliotheken, kurz "OPACs" genannt, eröffneten neue, den alten Zettel- und Mikrofichekatalogen völlig unbekannte Suchmöglichkeiten. Sie zogen aber auch neue Fragestellungen nach sich, besonders zum Handling und zur Suchstrategie. Zumindest dem "fragemutigen" Nutzer konnte und kann dabei vor Ort in den Bibliotheken immer noch direkt geholfen werden. Diese Hilfestellung entfällt jedoch bei allen Bibliotheks- und Verbundkatalogen, die im Internet als so genannte "Web-OPACs" angeboten werden. Sie erreichen einen viel größeren, dafür aber anonym bleibenden Interessentenkreis, vom absoluten Bibliothekslaien bis zum kundigen Bibliotheksnutzer. Diese aktiven und potentiellen Nutzer treten mit den unterschiedlichsten Anforderungen und Fragestellungen an solche Web-OPACs heran. Ein Web-OPAC muss demnach so gestaltet sein, dass er für Laien und Profis gleichermaßen nutzbar ist und dabei möglichst wenige Fragen überhaupt erst aufkommen lässt, im Idealfall also über eine selbsterklärende Oberfläche verfügt. Hilfetexte müssen die nicht vorhandene persönliche Hilfestellung kompensieren helfen. Sie sind also übersichtlich, verständlich und zielgerichtet einsetzbar zu gestalten.
-
Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2404) [ClassicSimilarity], result of:
0.052269787 = score(doc=2404,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2404, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2404)
0.25 = coord(1/4)
- Abstract
- Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
- Content
- Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Weiler, H.N.: Wissen und Macht in einer Welt der Konflikte : Zur Politik der Wissensproduktion (2002)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2583) [ClassicSimilarity], result of:
0.052269787 = score(doc=2583,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2583, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2583)
0.25 = coord(1/4)
- Abstract
- Die Diskussion über die Wissensgesellschaft läuft Gefahr, auf gut gemeinte Weise zu einem technokratischen Diskurs zu verkommen. Die Indizien sind vorhanden: Von "Wissensmanagement" ist die Rede, von "Schlüsselkompetenzen" und "Digitalisierung", von "human resources" und vom Bedarf neuer Arbeitsmärkte, von Informationskanälen und globalem Wettbewerb - wichtige Fragen allemal, aber für eine sachgerechte Auseinandersetzung mit einem so komplexen Gegenstand wie Wissen unzureichend. Das Defizit des Diskurses liegt zum einen darin, daß er sich nicht kritisch genug mit dem Begriff von "Wissen" und seinen epochalen Veränderungen im Verlauf des 20. Jahrhunderts beschäftigt, und zum andern darin, daß er sich nicht gründlich genug mit den politischen Bedingungen und Folgen der Schaffung und Verwendung von Wissen auseinandersetzt. In diesem Beitrag unternehme ich den Versuch, dieses doppelte Defizit zu thematisieren und zu überwinden. Dieser Versuch - geht aus von den tiefgreifenden Wandlungen im Verständnis dessen, was "Wissen" bedeutet und wie es entsteht (Teil 1); - stellt sodann (in Teil 2) die Grundzüge einer "Politologie des Wissens" dar; - illustriert sie (in Teil 3) am Beispiel der Diskurse zum Begriff von Entwicklung, zur Bedeutung von Geschlechterrollen und zum Verständnis von Demokratie; und - weist schließlich (in Teil 4) darauf hin, welche Folgen diese Art von kritischer Reflektion über Wissen für die zukünftige Orientierung von Hochschulen haben könnte.
- Source
- Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
-
Henze, G.: First IFLA Meeting of Experts an an International Cataloguing Code (2003)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2960) [ClassicSimilarity], result of:
0.052269787 = score(doc=2960,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2960, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2960)
0.25 = coord(1/4)
- Abstract
- Vom 28. bis 30. Juli 2003 trafen sich in der Deutschen Bibliothek Frankfurt am Main auf Einladung der Sektion Katalogisierung der IFLA Regelwerksexperten aus Europa, Amerika und Australien zum »First IFLA Meeting of Experts an an International Cataloguing Code«. Die europäischen Regelwerksgremien entsandten verantwortliche Regelwerksexperten. Dieser Auftaktveranstaltung, die die Erschließung in Europa zum Schwerpunkt hatte, sollen weitere Veranstaltungen im Vorfeld der IFLA-Konferenzen 2004 in Buenos Aires und 2006 in Seoul folgen. 52 Teilnehmerinnen und Teilnehmer aus insgesamt 29 Ländern und drei Kontinenten nutzten die Gelegenheit zu einem intensiven Informations- und Meinungsaustausch auf der Frankfurter Konferenz, nachdem bereits im Vorfeld Hintergrundpapiere auf der Konferenz-Website" bereitgestellt worden waren. Diskussionsbeiträge wurden ebenfalls bereits vor dem Treffen über eine E-MailListe ausgetauscht, die nicht nur den Teilnehmerinnen und Teilnehmern, sondern auch weiteren Interessierten offen stand und besonders in den Wochen und Tagen vor der Konferenz rege genutzt wurde. Arbeitssprache der Konferenz war englisch. Das Ziel der Konferenz, die Möglichkeiten eines weltweiten Datenaustausches über gemeinsame Standards zu den Inhalten von bibliografischen Datensätzen und Normdatensätzen zu verbessern, stieß auf allgemeines Interesse. Für eine vergleichende Untersuchung zu grundlegenden Gemeinsamkeiten und Unterschieden in den derzeit in Europa verwendeten Regelwerken erstellten die Regelwerksgremien unter Verwendung eines einheitlichen Fragenkataloges »Steckbriefe«, um Möglichkeiten einer Harmonisierung auszuloten und vielleicht sogar in naher Zukunft ein internationales Regelwerk zu entwickeln. Angesichts der Vielzahl der in Europa verwendeten Regelwerke konnten diese nicht alle im Plenum vorgestellt werden. Stattdessen gab es eine kurze Vorstellung der Regelwerksgremien in den angloamerikanischen Ländern sowie Frankreich, Deutschland und Osterreich, Spanien, Russland, Italien und Kroatien.
-
IFLA-CDNL Alliance for Bibliographic Standards (ICABS) (2003)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2961) [ClassicSimilarity], result of:
0.052269787 = score(doc=2961,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2961, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2961)
0.25 = coord(1/4)
- Abstract
- Während des Weltkongresses Bibliothek und Information, der 69. IFLA-Generalkonferenz, 2003 in Berlin wurde mit der IFLA-CDNL Alliance for Bibliographic Standards (ICABS) ein neues strategisches Vorhaben für bibliografische Standards ins Leben gerufen. Die feierliche Unterzeichnung fand am 7. August 2003 statt. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek und Die Deutsche Bibliothek gemeinsam mit der National Library of Portugal, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung der Koordination und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcen-Kontrolle sowie damit zusammenhängender Formatstandards an. Wichtige Ziele hierbei sind insbesondere - bereits existierende Standards und Konzepte aus dem Bereich der bibliografischen und der Ressourcen-Kontrolle zu pflegen, für sie zu werben und sie zu harmonisieren, - Strategien für bibliografische und Ressourcen-Kontrolle zu entwickeln und für neue und empfohlene Konventionen zu werben, sowie das Verständnis von Themen zu vertiefen, die mit der Langzeitarchivierung elektronischer Ressourcen zusammenhängen. Das IFLA-Programm Universal Bibliographic Control and International MARC (UBCIM), das bei Der Deutschen Bibliothek angesiedelt war, endete im Februar 2003 mit dem Eintritt der bisherigen Leiterin Marie-France Plassard in den Ruhestand. Die verantwortlichen IFLA-Gremien eruierten bereits in den Vorjahren Möglichkeiten, wie die Betreuung des Formates UNIMARC und die Fortführung eines Programms, das sich mit der universellen bibliografischen Kontrolle beschäftigt, sichergestellt werden könnten. Die portugiesische Nationalbibliothek hat nunmehr zu Beginn diesen Jahres die Pflege und Entwicklung von UNIMARC sowie die Herausgabe der Publikation »International Cataloguing and Bibliographic Control« (ICBC) übernommen.
-
Kuhlen, R.: Kommunikationsrechte - "impart" oder "r2c"? (2003)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 2964) [ClassicSimilarity], result of:
0.052269787 = score(doc=2964,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 2964, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2964)
0.25 = coord(1/4)
- Abstract
- Mit Referenz auf Art. 19 der Universal Declaration of Human Rights wurde vor gut 25 Jahren eine erbitterte Auseinandersetzung um das "right to communicate" (r2c) als zentraler Bestandteil einer "New World Information and Communication Order" (NWIKO) geführt, die sich heute, unter veränderten Rahmenbedingungen, aber mit ähnlicher politischer, ökonomischer und medialerRelevanz und Brisanz, auf dem Weg zum Weltgipfel zur Informationsgesellschaft (WSIS) wiederholt. Erneut geht es zwar auch um Meinungs-/Medien-/Pressefreiheit aber in erster Linie darum, wer in globaler Hinsicht die Organisationsformen bzw. den Umgang mit Wissen und Information dominieren kann. Es werden die wesentlichen Argumente des alten Streits um die NWIKO im Lichte der aktuellen Entwicklung des WSIS reinterpretiert und zwar aus politischer, medienpolitischer und menschenrechtlicher Sicht. Der Wechsel vom Distribu-tions- zum Interaktions- und Kommunikationsparadigma macht neue Formen medialer Öffentlichkeit, kooperativer Partizipation in der Wirtschaft aber auch kollaborativer Erarbeitung von Wissen und Information und dessen Verteilung möglich. Es wird die These aufgestellt, dass die derzeit von (großen Teilen aus) Politik, Wirtschaft und den Medien mit Vehemenz betriebene Abwehr von r2c als Bestandteil der offiziellen WSIS-Verlautbarungen in ersterLinie der Besitzstandswahrung dient. Es könnte so die Chance verpasst werden, über ein zugestandenes r2c den Weg für neue, elektronischen Umgebungen angemessene Produktions-, Verteil- und Nutzungsformen für den Umgang mit Wissen und Information zu öffnen. Informationsgesellschaften können sich erst dann zu inklusiven und nachhaltigen Gesellschaften entwickeln, wenn Kommunikationsrechte tatsächlich auch von allen zur Überwindung der verschiedenen Ausprägungen des Digital divide wahrgenommen werden können.'
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.7, S.389-400
-
FAST Data Search zur Erprobung der Enterprise-Suchtechnologie für digitale Bibliotheken (2004)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 3109) [ClassicSimilarity], result of:
0.052269787 = score(doc=3109,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 3109, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3109)
0.25 = coord(1/4)
- Abstract
- Fast Search and Transfer (FAST), führender Entwickler von Enterprise-Suchund Echtzeit-Informationstechnologie, und die Universitätsbibliothek Bielefeld gaben heute ihre Zusammenarbeit bei der Förderung der Entwicklung und Einführung von Suchtechnologien speziell im Bereich wissenschaftlich relevanter Online-Informationen bekannt. Die Kooperation beinhaltet den Einsatz von FAST Data Search in der Universitätsbibliothek Bielefeld und eine Partnerschaft mit FAST, die den wissenschaftlichen Bibliotheken weltweit die Vorzüge des integrierten Online-Informationszugangs verstärkt nahe bringen soll. Gefördert mit Sondermitteln des nordrhein-westfälischen Ministeriums für Wissenschaft und Forschung, des Bundesministeriums für Bildung und Forschung und der Deutschen Forschungsgemeinschaft (DFG) führt die Universitätsbibliothek Bielefeld Projekte zur Erprobung und Entwicklung von Modulen und Systemen durch, die den Zugang zu einer immer größer werdenden Anzahl elektronischer Ressourcen verbessern sollen. Eines der Hauptprojekte der Universitätsbibliothek Bielefeld war die Entwicklung der "Digitalen Bibliothek", die einen integrierten Zugang zu in lokalen und externen Online-Bibliothekskatalogen, zu lizenzierten elektronischen Ressourcen wie elektronischen Zeitschriften und Datenbanken sowie zu Dokumentlieferdiensten bietet. Die Universitätsbibliothek Bielefeld bietet ihren Nutzern neben der Bereitstellung von über 8.500 elektronischen Zeitschriften in Volltextversion Suchmöglichkeiten in Katalogen, Multimedia-Lehrwerken, Fachportalen und einem Bibliothekskatalog, der elektronische und gedruckte Medien verzeichnet. FASTs skalierbare und flexible Suchtechnologie bietet der Universität Bielefeld eine gemeinsame Suchplattform, um innerhalb kürzester Zeit in dieser großen Datenmenge die relevantesten Informationen zu finden, wobei auch die verfügbaren Metadaten in vollem Umfang genutzt werden.
-
Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
0.052269787 = score(doc=3508,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 3508, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3508)
0.25 = coord(1/4)
- Abstract
- Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
- Footnote
- Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
- Imprint
- Köln : Fakultät für Informations- und Kommunikationswissenschaften
-
Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003)
0.01
0.013067447 = product of:
0.052269787 = sum of:
0.052269787 = weight(_text_:und in 3871) [ClassicSimilarity], result of:
0.052269787 = score(doc=3871,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.44176215 = fieldWeight in 3871, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3871)
0.25 = coord(1/4)
- Abstract
- Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
- Imprint
- Köln : Fakultät für Informations- und Kommunikationswissenschaften
- Series
- Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42