Search (4748 results, page 30 of 238)

  • × year_i:[2000 TO 2010}
  1. Firley, S.; Klasing, M.; Lülsdorf, L.; Mikosch, M.; Nagelschmidt, M.: Neue Plattform für Indexierung und Retrieval : Studenten erstellen die Webseite »iXtrieve« (2008) 0.01
    0.012606494 = product of:
      0.050425977 = sum of:
        0.050425977 = weight(_text_:und in 2826) [ClassicSimilarity], result of:
          0.050425977 = score(doc=2826,freq=54.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44565287 = fieldWeight in 2826, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2826)
      0.25 = coord(1/4)
    
    Abstract
    An der Fachhochschule Köln haben sich fünf Studierende des Diplom-Studiengangs Bibliothekswesen mit dem Aufbau einer Webseite für die Themenkomplexe Indexierung und Information Retrieval* befasst. Ein »Eingangsportal für alle damit verbundenen Fragestellungen« war in der Aufgabenstellung vorgesehen, die Rahmenbedingungen waren vorgegeben: Nutzung des unter Open-Source-Lizenz stehenden Content-Management-Systems Joomla, eigenverantwortliche Projektorganisation und Gruppenarbeit.
    Content
    "Knapp ein Jahr später findet der Interessierte unter www. indexierung-retrieval.de ein ausbaufähiges Fundament zu diesen Fragestellungen. Das Hauptziel waren eigene Inhalte, von Stud ierenden des Fachs selbstständig erarbeitet und verfasst. Mit voranschreitendem Projektverlauf und wechselnden verantwortlichen Projektgruppen soll damit mittelfristig ein repräsentatives Spektrum an Beiträgen aus dem Umfeld von Indexierung und Retrieval zur Verfügung stehen. Eine einführende Lektüre in die Welt der semantischen Netze, des automatischen Abstracting und der automatischen Indexierung ist bereits möglich. Die umgesetzte Darstellungsform solcher mitunter interdisziplinärenArtikel istanwendungsorientiert und mit deutlichem Bezug zum Informations- und Dokumentationsbereich, speziell zum Bibliothekswesen. Ein tieferer Einstieg in die Themen ist möglich, denn strukturierte und kommentierte Linklisten weisen den Weg zu Hochschulen, Forschungseinrichtungen, Firmen und anderen relevanten Institutionen. Links zu stillgelegten Webseiten oder fehlerhafte Verknüpfungen werden dabei vom Content-Management-System automatisch erkannt und an den Administrator gemeldet. Neben Webressourcen sind auch Nachweise der einschlägigen Fachliteratur berücksichtigt, zum Teil mit einem Direktlink zum elektronischen Volltext. Das Portal bietet außer der thematischen Gliederung auch eine umfangreiche, annotierte Linkliste, die über zahlreiche Such- und Navigationsmöglichkeiten verfügt. Diese ist am Institut für Informationswissenschaft an der Fachhochschule Köln über einen längeren Zeitraum aufgebaut und nun im Rahmen dieses Projekts in iXtrieve eingebunden und erweitert worden. Weiterhin eingebaut wurde die Rubrik »Personen und Institutionen«, welche die Funktion eines Kompetenznetzwerks übernimmt.
    Eine exponierte Position haben die Fachzeitschriften bekommen. Von der Linkliste losgelöst sind die bibliografischen Daten von derzeit 29 internationalen Fachzeitschriften separat zusammengeführt, gegebenenfalls mit einem Link zur Online-Ausgabe versehen, und im Volltext suchbar. In der Nähe der Fachzeitschriften findet der Besucher einen Link auf die Datenbank der Literatur zur Inhaltserschließung - ein Angebot, das ebenfalls am Institut für Informationswissenschaft entstanden ist und durch Prof. Winfried Gödert betreut wird. Diese umfangreiche Sammlung weist vor allem unselbstständig erschienene Literatur nach und ist durch eine eigene Retrievaloberfläche zugänglich. Umfangreiches Glossar Zu den ambitionierten Vorhaben gehört das Glossar, das derzeit rund hundert Einträge umfasst, von »A« wie »Abstract« bis »W« wie »Warenklassifikation«. Diese Vokabularsammlung ist in ihrem Wachstum an die thematischen Textbeiträge gekoppelt und soll neben der Erläuterung einzelner grundlegender Begriffe vor allem einen Überblick über die in iXtrieve verwendete Terminologie verschaffen. Das Projekt wurde im Wesentlichen dezentral durchgeführt und durch regelmäßig stattfindende Projektsitzungen abgerundet. Bei gleichen Rechten und gleichen Pflichten für alle Teilnehmer herrschte ein hoher Kommunikationsbedarf, sodass ein virtueller Treffpunkt nötig war. Die frei verfügbare Software »eGroupWare« wurde dazu auf einem Institutsserver eingerichtet und ermöglichte nicht nur einen reibungslosen Austausch, sondern auch das Hochladen der Sitzungsprotokolle und schriftlich fixierter Ideen einzelner Teilnehmer. iXtrieve wird in Kürze durch eine nachfolgende Projektgruppe weiter ausgebaut werden. Die Projektdauer ist mit zwei Semestern bemessen, während derer die Projektteilnehmer den Umgang mit Joomla erlernen, ihre Arbeitsabläufe planen und organisieren und anschließend iXtrieve kontinuierlich zu einer Kompetenzplattform für Indexierung und Retrieval weiterentwickeln."
  2. Migl, J.: Verteilte Ressourcen, zentraler Nachweis: elektronische Dokumente und das "Zentrale Verzeichnis digitalisierter Drucke" (zvdd) : Möglichkeiten und Grenzen eines Portals (2008) 0.01
    0.012606494 = product of:
      0.050425977 = sum of:
        0.050425977 = weight(_text_:und in 2848) [ClassicSimilarity], result of:
          0.050425977 = score(doc=2848,freq=54.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44565287 = fieldWeight in 2848, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2848)
      0.25 = coord(1/4)
    
    Abstract
    Einleitung Natürlich ist das Projekt zvdd im Vergleich zu einem Langzeitunternehmen wie dem VD 17, über das Frau Sommer eben sprach, ein echtes Kurzzeit-Projekt. Dennoch: wer schon fast 30 Monate Förderung hinter sich und gerade noch ein gutes halbes Jahr vor sich hat, kann nur noch sehr begrenzt über Absichten, Pläne und Ziele sprechen, die er noch erreichen will. Man wird vor allem Ergebnisse und vielleicht sogar schon ein erstes vorgezogenes Resümee erwarten. Ich will das in meinem Referat versuchen und dabei vor allem den Blick auf die Ausgangs- und Rahmenbedingungen und die besonderen Herausforderungen werfen, mit denen die Projektnehmer in der Vergangenheit zurechtkommen mussten. Ich glaube, dass das nicht zuletzt deswegen gerechtfertigt ist, weil wir ganz aktuell vor der Bildung neuer und größerer Portallösungen stehen und die in zvdd gemachten Erfahrungen auch für diese wertvoll sein können.
    Content
    Voraussetzungen und Zielvorgaben Im Laufe der letzten ungefähr 10 Jahre sind in Deutschland zahlreiche Digitalisierungsprojekte durchgeführt worden. Die Mehrzahl davon war und ist an Bibliotheken angesiedelt, daneben stehen aber nicht wenige Projekte, die von Akademien, MaxPlanck-Instituten, einzelnen Universitätsinstituten und anderen Projektnehmern beantragt und durchgeführt wurden. Selbst wenn man die Zählung auf die DFG-finanzierten Projekte beschränkt, ist man schnell in der Größenordnung von weit über 100 Projekten, ohne Berücksichtigung der mindestens noch einmal so vielen von anderer Seite unterstützten oder privat durchgeführten Unternehmungen2. Was am Beginn der großen Digitalisierungskampagnen noch durchaus gewollt war, nämlich die Förderung unterschiedlicher Verfahren und Methoden, die Anwendung verschiedener technischer Lösungen bei Hard- und Software, die freie Hand für die Projektleiter bei der Entwicklung von Zugriffsmöglichkeiten, bei Erschließungsmethoden und Navigationsinstrumenten, entpuppte sich jedoch nach und nach als strategischer Nachteil. Gewiss: Man hatte auf diese Weise eine Vielzahl an Erfahrungen sammeln und für die Formulierung von Empfehlungen nutzen können. Vor allem bei der Ausarbeitung von technischen Standards mag es hilfreich gewesen sein, auf möglichst viele unterschiedliche Erfahrungen zurückgreifen zu können. Im Ergebnis aber entstanden so viele Realisierungen, wie es Projekte gab. Jedes stand für sich mit einem individuellen Auftritt im Netz und wartete auf Kundschaft, die - wie wir heute wissen - aber nicht in der erhofften Frequenz die neuen Angebote nutzte. Spätestens bei einem Seitenblick auf die parallel entstehenden Strukturen im Ausland musste die sehr bunte deutsche Digitalisierungs-landschaft mehr und mehr als ein eher bedenkliches Konzept erscheinen. Der Verzicht auf Standardisierung und Zentralisierung, das Nebeneinander von jeweils für die Projekte sinnvollen, aber in der Regel nicht nachnutzbaren Projektarchitekturen begann sich zu rächen, denn die potenziellen Nutzer der bereitgestellten Dokumente fanden diese entweder nicht oder verloren schnell die Lust, in jedem neuen Projekt wieder mit dem Studium der Betriebsanleitung zu beginnen. Als sich dann vor dem Hintergrund des Erfolges von Google die Vorstellung durchsetzte, das weltweite Netz lasse sich leicht und vollständig von einem einfachen Suchschlitz aus durchkämmen, wuchs hierzulande der Druck, hinter den vielen bunten Mosaiksteinchen doch noch das eigentliche Bild erkennbar werden zu lassen. Ein zweifellos lohnendes Ziel sind doch die in den Projekten erarbeiteten Angebote und Standards zumeist von hoher Qualität. Der Plan fügte sich zudem leicht in die aktuellen strategischen Zielvorstellungen von einer homogenen digitalen Bibliothek Deutschland, sogar einer europäischen digitalen Bibliothek oder gemeinsamen Portalen von Bibliotheken, Museen und Archiven, in welchen die in den Einzelprojekten erzielten Ergebnisse letzten Endes aufgehen sollen.
    Footnote
    Vortrag anlässlich der 16. gemeinsamen Bibliothekstage für Niedersachsen und Sachsen-Anhalt "Das historische Buch in der modernen Bibliothek" am 08.09.2007 in Halle
    Source
    Mitteilungsblatt der Bibliotheken in Niedersachsen und Sachsen-Anhalt. 2008, H.138, S.17-20
  3. Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009) 0.01
    0.012606494 = product of:
      0.050425977 = sum of:
        0.050425977 = weight(_text_:und in 573) [ClassicSimilarity], result of:
          0.050425977 = score(doc=573,freq=54.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44565287 = fieldWeight in 573, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=573)
      0.25 = coord(1/4)
    
    Abstract
    Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
  4. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.01
    0.012606494 = product of:
      0.050425977 = sum of:
        0.050425977 = weight(_text_:und in 1329) [ClassicSimilarity], result of:
          0.050425977 = score(doc=1329,freq=54.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44565287 = fieldWeight in 1329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1329)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
  5. Diedrichs, R.: ¬Die GBV Verbundzentrale : von der Katalogisierungszentrale zum modernen Dienstleistungsunternehmen (2000) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 6518) [ClassicSimilarity], result of:
          0.04998574 = score(doc=6518,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 6518, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6518)
      0.25 = coord(1/4)
    
    Abstract
    Die Gründung des GBV stellte 1996 einen in zweierlei Hinsicht einmaligen Vorgang in der Geschichte der Bibliotheksverbünde dar: die Vereinigung zweier bis dahin unabhängiger Bibliotheksverbünde und den Abschluss eines Verwaltungsabkommens zwischen sieben Bundesländern innerhalb eines Jahres. Einer der wesentlichen Gründe für diesen Zusammenschluss war, dass die beiden bis dahin unabhängigen Verbundzentralen allein nicht mehr in der Lage waren, die urch die Einführung der lokalen Bibliothekssysteme und endbenutzerorientierten Dienstleistungen neu entstehenden Aufgaben zu erfüllen. In den der Vereinigung vorausgehenden Verhandlungen wurde sehr schnell klar, dass der neue Verbund nur dann erfolgreich sein konnte, wenn es gelang für die Verbundzentrale Finanzierungs- und Organisationsformen zu finden, die sie von Einzelinteressen der Länder unabhängig machte. Die Verbundzentrale Göttingen war zu diesem Zeitpunkt Abteilung der SUB Göttingen und damit Teil der Universität Göttingen. Im Verwaltungsabkommen wurde festlegt, dass die Fachaufsicht bei der Verbundleitung, die Dienstaufsicht jedoch beim Direktor der SUB Göttingen bzw. dem Präsidenten der Universität liegt. Diese Konstruktion hatte jedoch zwei entscheidende Nachteile: Bei divergierenden Interessen zwischen Verbund und SUB / Universität Göttingen sind sachfremde Entscheidungen zu Gunsten der Bibliothek bzw. Universität nicht auszuschließen. Hinsichtlich der finanziellen Flexibilität verhindert die bestehende Einbindung in das kameralistische Haushaltssystem die notwendige Beweglichkeit und Anpassungsfähigkeit
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  6. Schulz, U.: Search engine usability : über die Nutzungsqualität von Suchmaschinen (2001) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 6776) [ClassicSimilarity], result of:
          0.04998574 = score(doc=6776,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 6776, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6776)
      0.25 = coord(1/4)
    
    Abstract
    Web Usability konnte sich als Forschungsbereich zunächst nur in größeren Firmen der Internet-Branche wie z. B. Icon Medialab etablieren. Mit zunehmender Konkurrenz und ersten Pleiten im E-Commerce entsteht die Einsicht oder bittere Erfahrung, dass bunte, multimediale Internetpräsenz nicht alles ist: Die Nutzungsqualität von Websites tritt in den Vordergrund und damit ein neuer Arbeitsmarkt für Informationsarchitekten und HCI- bzw. Usability-Spezialisten. Suchmaschinen sind eine besondere Kategorie von Website. Sie entstehen in einem Spannungsfeld zweier unterschiedlicher Interessen: Mit kommerziellen Websites teilen sie den Wettbewerb um Kunden und die Art der Kunden: den ungeduldigen gelegentlichen Anwender. Mit der akademischen Welt teilen sie das forschende Bemühen um die Optimierung von Features und Funktionen und die déformation professionelle der Eingeweihten. Am Beispiel zweier Untersuchungen wird deutlich, wie es der richtige 'Methodenmix' ermöglicht, bei der Evaluation der Nutzungsqualität von Suchmaschinen ganz unterschiedlicher Art (a) diesen Interessenkonflikt bewusst zu machen, (b) Empathie für die Nöte der Kunden zu entwickeln und c) allgemeingültige Kriterien zur Entwicklung gebrauchstauglicher Suchmaschinen aufzustellen. Beide Untersuchungen fanden im Rahmen des Projekts Jorschung und Forschungsumgebung für Web Usability« unter Mitwirkung von Studierenden am Fachbereich Bibliothek und Information der FH Hamburg statt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Kerres, M.: Multimediale und telemediale Lernumgebungen : Konzeption und Entwicklung (2000) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.04998574 = score(doc=37,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 37, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=37)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: c't 2001, H.12, S.244 (J. Loviscach): "In den USA sprießen virtuelle Universitäten wie Pilze aus dem Boden. In Deutschland lassen Politiker Steuergelder in ernst zu nehmender Höhe für computerund netzgestützte Projekte an Schulen und Hochschulen springen - am elektronischen Lernen muss wohl etwas dran sein. Kritische Literatur zu diesem Themenkreis hat bislang allerdings Seltenheitswert: Wer sich als Leser nicht mit unbegründeten Floskeln oder flauen Kochrezepten für Multimedia-Software zufrieden gibt, muss lange suchen. Michael Kerres, Professor für Pädagogische Psychologie mit Schwerpunkt Medien an der Ruhr-Universität Bochum und obendrein Gründer der Tele-Akademie der Fachhochschule Furtwangen, ebnet mit seinem Buch den Weg für eine differenzierte Auseinandersetzung. Der dumpfen Schwarzweißmalerei à la 'Lehrer sind zu teuer' contra 'Computer sind dumm' stellt er die Ergebnisse der pädagogischen Forschung, die Erfahrungen aus der immerhin 40-jährigen Geschichte des computerunterstützen Lernens und Lehrens sowie den Stand der Technik entgegen. 'Multimediale und telemediale Lernumgebungen' spannt einen weiten Bogen. Dieser beginnt bei der Geschichte von Ansätzen wie Behaviourismus und Konstruktivismus sowie entsprechender Lernsoftware und führt über Konzeptionsfragen, insbesondere der Zielanalyse, bis hin zu konkreten Entwicklungsverfahren mit Prototypen und Evaluation. Sogar kurze Handreichungen etwa zur Filmproduktion und zur Kostenschätzung fehlen nicht. Der Schreibstil gerät hier und dort so akademisch-sperrig wie schon der Titel - hier liegt vielleicht eine Verbesserungsmöglichkeit für die nächste Auflage. Erfreulich ist, dass Kerres das Für und Wider nicht nur am grünen Tisch abwägt, sondem auf unzählige Studien zugreift und diese sogar noch kritisch einordnet. Er hütet sich vor Pauschalisierungen: Für ihn ist ein Medium nicht als solches gut oder schlecht; vielmehr lässt sich dessen Qualität nur an Hand der Kommunikationsziele beurteilen."
  8. Kliemt, A.: Vom VÖBB zum WorldCat : DER WWW-OPAC des VÖBB im funktionalen Vergleich mit anderen Web-OPACs (2002) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2174) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2174,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2174, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2174)
      0.25 = coord(1/4)
    
    Abstract
    Recherche in Bibliothekskatalogen war, zumindest in deutschen Bibliotheken, bis zur Mitte des 20. Jahrhunderts in der Regel Sache des Personals, eine wirklich erfolgreiche Recherche meist Spezialisten vorbehalten. Nur diese waren in der Lage, häufig unter Einbeziehung diverser Hilfsmittel, Titelwünsche der Leser nach den jeweiligen Katalog- und Bibliotheksregeln in entsprechende Kataloganfragen umzusetzen. Als dann den Bibliothekskunden selbst nach und nach der Zugang zu diesen Zettelkatalogen in den Bibliotheken eröffnet wurde, war für eine erfolgreiche Suche meist "guter Rat teuer". Hilfestellung und "guter Rat", oft schon bei einer simplen Titelsuche wie "Schuld und Sühne" nötig, konnte vom uneingeweihten Leser direkt vor Ort in der Bibliothek eingeholt werden. Elektronische Formen der Kataloge in Bibliotheken, kurz "OPACs" genannt, eröffneten neue, den alten Zettel- und Mikrofichekatalogen völlig unbekannte Suchmöglichkeiten. Sie zogen aber auch neue Fragestellungen nach sich, besonders zum Handling und zur Suchstrategie. Zumindest dem "fragemutigen" Nutzer konnte und kann dabei vor Ort in den Bibliotheken immer noch direkt geholfen werden. Diese Hilfestellung entfällt jedoch bei allen Bibliotheks- und Verbundkatalogen, die im Internet als so genannte "Web-OPACs" angeboten werden. Sie erreichen einen viel größeren, dafür aber anonym bleibenden Interessentenkreis, vom absoluten Bibliothekslaien bis zum kundigen Bibliotheksnutzer. Diese aktiven und potentiellen Nutzer treten mit den unterschiedlichsten Anforderungen und Fragestellungen an solche Web-OPACs heran. Ein Web-OPAC muss demnach so gestaltet sein, dass er für Laien und Profis gleichermaßen nutzbar ist und dabei möglichst wenige Fragen überhaupt erst aufkommen lässt, im Idealfall also über eine selbsterklärende Oberfläche verfügt. Hilfetexte müssen die nicht vorhandene persönliche Hilfestellung kompensieren helfen. Sie sind also übersichtlich, verständlich und zielgerichtet einsetzbar zu gestalten.
  9. Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2404) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2404,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2404)
      0.25 = coord(1/4)
    
    Abstract
    Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
    Content
    Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  10. Weiler, H.N.: Wissen und Macht in einer Welt der Konflikte : Zur Politik der Wissensproduktion (2002) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2583) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2583,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2583, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2583)
      0.25 = coord(1/4)
    
    Abstract
    Die Diskussion über die Wissensgesellschaft läuft Gefahr, auf gut gemeinte Weise zu einem technokratischen Diskurs zu verkommen. Die Indizien sind vorhanden: Von "Wissensmanagement" ist die Rede, von "Schlüsselkompetenzen" und "Digitalisierung", von "human resources" und vom Bedarf neuer Arbeitsmärkte, von Informationskanälen und globalem Wettbewerb - wichtige Fragen allemal, aber für eine sachgerechte Auseinandersetzung mit einem so komplexen Gegenstand wie Wissen unzureichend. Das Defizit des Diskurses liegt zum einen darin, daß er sich nicht kritisch genug mit dem Begriff von "Wissen" und seinen epochalen Veränderungen im Verlauf des 20. Jahrhunderts beschäftigt, und zum andern darin, daß er sich nicht gründlich genug mit den politischen Bedingungen und Folgen der Schaffung und Verwendung von Wissen auseinandersetzt. In diesem Beitrag unternehme ich den Versuch, dieses doppelte Defizit zu thematisieren und zu überwinden. Dieser Versuch - geht aus von den tiefgreifenden Wandlungen im Verständnis dessen, was "Wissen" bedeutet und wie es entsteht (Teil 1); - stellt sodann (in Teil 2) die Grundzüge einer "Politologie des Wissens" dar; - illustriert sie (in Teil 3) am Beispiel der Diskurse zum Begriff von Entwicklung, zur Bedeutung von Geschlechterrollen und zum Verständnis von Demokratie; und - weist schließlich (in Teil 4) darauf hin, welche Folgen diese Art von kritischer Reflektion über Wissen für die zukünftige Orientierung von Hochschulen haben könnte.
    Source
    Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
  11. Henze, G.: First IFLA Meeting of Experts an an International Cataloguing Code (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2960) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2960,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2960, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2960)
      0.25 = coord(1/4)
    
    Abstract
    Vom 28. bis 30. Juli 2003 trafen sich in der Deutschen Bibliothek Frankfurt am Main auf Einladung der Sektion Katalogisierung der IFLA Regelwerksexperten aus Europa, Amerika und Australien zum »First IFLA Meeting of Experts an an International Cataloguing Code«. Die europäischen Regelwerksgremien entsandten verantwortliche Regelwerksexperten. Dieser Auftaktveranstaltung, die die Erschließung in Europa zum Schwerpunkt hatte, sollen weitere Veranstaltungen im Vorfeld der IFLA-Konferenzen 2004 in Buenos Aires und 2006 in Seoul folgen. 52 Teilnehmerinnen und Teilnehmer aus insgesamt 29 Ländern und drei Kontinenten nutzten die Gelegenheit zu einem intensiven Informations- und Meinungsaustausch auf der Frankfurter Konferenz, nachdem bereits im Vorfeld Hintergrundpapiere auf der Konferenz-Website" bereitgestellt worden waren. Diskussionsbeiträge wurden ebenfalls bereits vor dem Treffen über eine E-MailListe ausgetauscht, die nicht nur den Teilnehmerinnen und Teilnehmern, sondern auch weiteren Interessierten offen stand und besonders in den Wochen und Tagen vor der Konferenz rege genutzt wurde. Arbeitssprache der Konferenz war englisch. Das Ziel der Konferenz, die Möglichkeiten eines weltweiten Datenaustausches über gemeinsame Standards zu den Inhalten von bibliografischen Datensätzen und Normdatensätzen zu verbessern, stieß auf allgemeines Interesse. Für eine vergleichende Untersuchung zu grundlegenden Gemeinsamkeiten und Unterschieden in den derzeit in Europa verwendeten Regelwerken erstellten die Regelwerksgremien unter Verwendung eines einheitlichen Fragenkataloges »Steckbriefe«, um Möglichkeiten einer Harmonisierung auszuloten und vielleicht sogar in naher Zukunft ein internationales Regelwerk zu entwickeln. Angesichts der Vielzahl der in Europa verwendeten Regelwerke konnten diese nicht alle im Plenum vorgestellt werden. Stattdessen gab es eine kurze Vorstellung der Regelwerksgremien in den angloamerikanischen Ländern sowie Frankreich, Deutschland und Osterreich, Spanien, Russland, Italien und Kroatien.
  12. IFLA-CDNL Alliance for Bibliographic Standards (ICABS) (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2961) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2961,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2961, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2961)
      0.25 = coord(1/4)
    
    Abstract
    Während des Weltkongresses Bibliothek und Information, der 69. IFLA-Generalkonferenz, 2003 in Berlin wurde mit der IFLA-CDNL Alliance for Bibliographic Standards (ICABS) ein neues strategisches Vorhaben für bibliografische Standards ins Leben gerufen. Die feierliche Unterzeichnung fand am 7. August 2003 statt. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek und Die Deutsche Bibliothek gemeinsam mit der National Library of Portugal, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung der Koordination und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcen-Kontrolle sowie damit zusammenhängender Formatstandards an. Wichtige Ziele hierbei sind insbesondere - bereits existierende Standards und Konzepte aus dem Bereich der bibliografischen und der Ressourcen-Kontrolle zu pflegen, für sie zu werben und sie zu harmonisieren, - Strategien für bibliografische und Ressourcen-Kontrolle zu entwickeln und für neue und empfohlene Konventionen zu werben, sowie das Verständnis von Themen zu vertiefen, die mit der Langzeitarchivierung elektronischer Ressourcen zusammenhängen. Das IFLA-Programm Universal Bibliographic Control and International MARC (UBCIM), das bei Der Deutschen Bibliothek angesiedelt war, endete im Februar 2003 mit dem Eintritt der bisherigen Leiterin Marie-France Plassard in den Ruhestand. Die verantwortlichen IFLA-Gremien eruierten bereits in den Vorjahren Möglichkeiten, wie die Betreuung des Formates UNIMARC und die Fortführung eines Programms, das sich mit der universellen bibliografischen Kontrolle beschäftigt, sichergestellt werden könnten. Die portugiesische Nationalbibliothek hat nunmehr zu Beginn diesen Jahres die Pflege und Entwicklung von UNIMARC sowie die Herausgabe der Publikation »International Cataloguing and Bibliographic Control« (ICBC) übernommen.
  13. Kuhlen, R.: Kommunikationsrechte - "impart" oder "r2c"? (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 2964) [ClassicSimilarity], result of:
          0.04998574 = score(doc=2964,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 2964, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2964)
      0.25 = coord(1/4)
    
    Abstract
    Mit Referenz auf Art. 19 der Universal Declaration of Human Rights wurde vor gut 25 Jahren eine erbitterte Auseinandersetzung um das "right to communicate" (r2c) als zentraler Bestandteil einer "New World Information and Communication Order" (NWIKO) geführt, die sich heute, unter veränderten Rahmenbedingungen, aber mit ähnlicher politischer, ökonomischer und medialerRelevanz und Brisanz, auf dem Weg zum Weltgipfel zur Informationsgesellschaft (WSIS) wiederholt. Erneut geht es zwar auch um Meinungs-/Medien-/Pressefreiheit aber in erster Linie darum, wer in globaler Hinsicht die Organisationsformen bzw. den Umgang mit Wissen und Information dominieren kann. Es werden die wesentlichen Argumente des alten Streits um die NWIKO im Lichte der aktuellen Entwicklung des WSIS reinterpretiert und zwar aus politischer, medienpolitischer und menschenrechtlicher Sicht. Der Wechsel vom Distribu-tions- zum Interaktions- und Kommunikationsparadigma macht neue Formen medialer Öffentlichkeit, kooperativer Partizipation in der Wirtschaft aber auch kollaborativer Erarbeitung von Wissen und Information und dessen Verteilung möglich. Es wird die These aufgestellt, dass die derzeit von (großen Teilen aus) Politik, Wirtschaft und den Medien mit Vehemenz betriebene Abwehr von r2c als Bestandteil der offiziellen WSIS-Verlautbarungen in ersterLinie der Besitzstandswahrung dient. Es könnte so die Chance verpasst werden, über ein zugestandenes r2c den Weg für neue, elektronischen Umgebungen angemessene Produktions-, Verteil- und Nutzungsformen für den Umgang mit Wissen und Information zu öffnen. Informationsgesellschaften können sich erst dann zu inklusiven und nachhaltigen Gesellschaften entwickeln, wenn Kommunikationsrechte tatsächlich auch von allen zur Überwindung der verschiedenen Ausprägungen des Digital divide wahrgenommen werden können.'
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.7, S.389-400
  14. FAST Data Search zur Erprobung der Enterprise-Suchtechnologie für digitale Bibliotheken (2004) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 3109) [ClassicSimilarity], result of:
          0.04998574 = score(doc=3109,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 3109, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3109)
      0.25 = coord(1/4)
    
    Abstract
    Fast Search and Transfer (FAST), führender Entwickler von Enterprise-Suchund Echtzeit-Informationstechnologie, und die Universitätsbibliothek Bielefeld gaben heute ihre Zusammenarbeit bei der Förderung der Entwicklung und Einführung von Suchtechnologien speziell im Bereich wissenschaftlich relevanter Online-Informationen bekannt. Die Kooperation beinhaltet den Einsatz von FAST Data Search in der Universitätsbibliothek Bielefeld und eine Partnerschaft mit FAST, die den wissenschaftlichen Bibliotheken weltweit die Vorzüge des integrierten Online-Informationszugangs verstärkt nahe bringen soll. Gefördert mit Sondermitteln des nordrhein-westfälischen Ministeriums für Wissenschaft und Forschung, des Bundesministeriums für Bildung und Forschung und der Deutschen Forschungsgemeinschaft (DFG) führt die Universitätsbibliothek Bielefeld Projekte zur Erprobung und Entwicklung von Modulen und Systemen durch, die den Zugang zu einer immer größer werdenden Anzahl elektronischer Ressourcen verbessern sollen. Eines der Hauptprojekte der Universitätsbibliothek Bielefeld war die Entwicklung der "Digitalen Bibliothek", die einen integrierten Zugang zu in lokalen und externen Online-Bibliothekskatalogen, zu lizenzierten elektronischen Ressourcen wie elektronischen Zeitschriften und Datenbanken sowie zu Dokumentlieferdiensten bietet. Die Universitätsbibliothek Bielefeld bietet ihren Nutzern neben der Bereitstellung von über 8.500 elektronischen Zeitschriften in Volltextversion Suchmöglichkeiten in Katalogen, Multimedia-Lehrwerken, Fachportalen und einem Bibliothekskatalog, der elektronische und gedruckte Medien verzeichnet. FASTs skalierbare und flexible Suchtechnologie bietet der Universität Bielefeld eine gemeinsame Suchplattform, um innerhalb kürzester Zeit in dieser großen Datenmenge die relevantesten Informationen zu finden, wobei auch die verfügbaren Metadaten in vollem Umfang genutzt werden.
  15. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.04998574 = score(doc=3508,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 3508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3508)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  16. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 3871) [ClassicSimilarity], result of:
          0.04998574 = score(doc=3871,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 3871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3871)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  17. Kobsa, A.: Adaptive Verfahren : Benutzermodellierung (2004) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 3923) [ClassicSimilarity], result of:
          0.04998574 = score(doc=3923,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 3923, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3923)
      0.25 = coord(1/4)
    
    Abstract
    Informationssysteme werden laufend komplexer und funktionsreicher und die damit zugreifbaren Informationsräume immer umfangreicher. Auf der anderen Seite steigt die Anzahl und insbesondere auch die Vielfalt der Nutzer solcher Systeme. Der weitaus größte Anteil von neuen Nutzern sind dabei keine technischen Experten, sondern Berufstätige in nicht-technischen Disziplinen, ältere Personen und Kinder. Diese Computerbenutzer weisen große Unterschiede auf in Bezug auf ihre Computererfahrung, Fachkenntnisse, Aufgaben und Ziele, Motivation und Stimmungslage, als auch ihre intellektuellen und physischen Fähigkeiten. Um diesen sehr heterogenen Nutzergruppen trotzdem zu ermöglichen, die Komplexität und Reichhaltigkeit gegenwärtiger Informationssysteme zu bewältigen, wurde die Benutzung dieser Systeme bisher sehr einfach gestaltet, und damit auf den "kleinsten gemeinsamen Nenner" aller Benutzer abgestellt. Zunehmend können solche Systeme jedoch manuell auf die individuellen Bedürfnisse jedes einzelnen Benutzers einstellt werden. Einige neuere Systeme gehen noch darüber hinaus: Sie sind innerhalb gewisser Grenzen in der Lage, Benutzerbedürfnisse selbst zu erkennen und sich entsprechend anzupassen. Die Terminologie von Oppermann aufgreifend wollen wir hier die erstere Art von Anwendung als "(benutzer)-adaptierbar" bezeichnen und die letztere als "(benutzer)-adaptiv". Die im System gespeicherten Informationen oder Annahmen über den Benutzer werden üblicherweise "Benutzermodell" oder "Benutzerprofil" genannt.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  18. Borghoff, U.M.; Rödig, P.; Scheffczyk, J.; Schmitz, L.: Langzeitarchivierung : Methoden zur Erhaltung digitaler Dokumente (2003) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 3998) [ClassicSimilarity], result of:
          0.04998574 = score(doc=3998,freq=104.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 3998, product of:
              10.198039 = tf(freq=104.0), with freq of:
                104.0 = termFreq=104.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3998)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.432-433 ( I. Schmidt u. A Dirsch-Weigand):" Glücklicherweise hatte man 1988 seine Diplomarbeit auf die teure 3,5"-Diskette und nicht auf die gängige 51/4"-Version gespeichert, bevor man den alten Computer entsorgte! Sonst müsste man heute bereits ein Computermuseum aufsuchen, um noch einen Rechner mit einem 51/4'-Laufwerk zu finden. So legt man erleichtert die Diskette ins Laufwerk ein und stellt dann doch schnell mit Entsetzen fest, dass sie nicht mehr lesbar ist. Gut, dass es zumindest noch den Ausdruck auf Papier gibt! Überträgt man dieses kleine Szenario aus dem Privatbereich auf Unternehmen, Behörden und Organisationen, so lässt sich die dramatische Situation in der Langzeitarchivierung von digitalen Dokumenten erahnen. Dabei sind mit der ständigen Weiterentwicklung der Hardware und der Haltbarkeit der Datenträger nur zwei der zahlreichen Risiken der Langzeitarchivierung angesprochen. Mittlerweile existieren eine Vielzahl unterschiedlicher Dokumenttypen wie E-Mails, Fotos oder Bilanzen in elektronischer Form und zunehmend mehr Dokumente liegen ausschließlich digital vor. Letztere lassen sich häufig gar nicht mehr so einfach ausdrucken, weil sie beispielsweise nicht linear, sondern als Hypertext aufgebaut sind, oder über animierte Grafiken verfügen. Digitale Daten über lange Zeit, das heißt über mehrere Jahrzehnte, zugreifbar zu halten, erfordert einen großen technischen und organisatorischen Weitblick und beständige Aufmerksamkeit für dieses Thema. Leider ist es heute noch viel zu oft gängige Praxis, erst einmal den Kopf in den Sand zu stecken. Schließlich sind die langfristigen Defizite noch nicht spürbar und die Fülle verschiedenartigster Probleme in der digitalen Langzeitverfügbarkeit verstellt den Blick für einen pragmatischen Ansatz. Letztlich muss man sich aber eingestehen, dass eine Auseinandersetzung mit dem Thema unausweichlich ist.
    Das hier besprochene Buch führt grundlegend, umfassend und gut verständlich in das Thema der Langzeitarchivierung digitaler Dokumentbestände ein. Das Problem wird sowohl von der organisatorischen wie auch von der technischen Seite her beleuchtet. Die Verfasser Uwe M. Borghoff, Peter Rödig, Jan Scheffczyk und Lothar Schmitz lehren und forschen am Institut für Softwareentwicklung der Universität der Bundeswehr in München. Den wissenschaftlichen Hintergrund des Buchs bilden mehrere DFG-Forschungsprojekte zum Thema Langzeitarchivierung. Die Autoren gliedern das Thema in zwei etwa gleich großen Teile: Der erste Teil liefert einen methodischen Überblick zur Langzeitverfügbarkeit digitaler Objekte, der zweite Teil stellt einschlägige Initiativen und Projekte vor. Der methodische Überblick führt zunächst ganz allgemein in die Langzeitarchivierung digitaler Dokumente ein, indem die verschiedenen Problemfacetten gut verständlich und nachvollziehbar dargestellt werden. Dabei geht es um grundlegende Archivierungsmodelle und -strategien, technische Lösungsansätze, die Haltbarkeit der Speichermedien und Veralterung der Verarbeitungssoftware sowie juristische und gesellschaftliche Fragen. Dieser Aufriss schärft beim Leser das Problembewusstsein für das gesamte Themenfeld. Im Folgenden werden das komplexe Open Archive Information System (OAIS) und das Deposit System for Electronic Publications (DSEP) als Referenzmodelle für die Archivierung elektronischer Objekte mit Hilfe anschaulicher Bilder gut vermittelt. OAIS ist eine ISO-Norm und umfasst sowohl ein Informationsmodell, das beschreibt, welche (Zusatz-)Informationen gesichert werden müssen, um ein elektronisches Objekt auch künftig verarbeiten und interpretieren zu können, als auch ein Prozess- und Organisationsmodell für die Gestaltung der Abläufe in einem Archiv. Das DSEP ist ein reines Prozessmodell und auf die Anforderungen digitaler Bibliotheken ausgerichtet. Es bindet das OAIS in den Geschäftsgang vorhandener Bibliotheken ein.
    Als technische Archivierungsstrategien werden Migration und Emulation vorgestellt und nach Chancen und Risiken ausführlich bewertet. Bei der Migration werden elektronische Dokumente regelmäßig von einer Hard- bzw. Softwarekonfiguration zur anderen transferiert. Bei der Emulation hingegen wird die originale Hard- und Softwareumgebung eines Dokuments auf jeder weiteren neuen Computergeneration imitiert. Die Beschreibung dieser Archivierungsstrategien fällt stellenweise sehr technisch aus. Der technisch weniger interessierte Leser kann die betreffenden Abschnitte jedoch ausdrücklich überspringen, ohne dass das grundsätzliche Verständnis darunter leidet. Schließlich geben die Autoren einen Überblick über die Methoden der Dokumentbeschreibung. Nach einer ersten Klassifikation der Markup-Sprachen, behandeln sie ihren Einsatz für die Archivierung. Im Mittelpunkt steht die Auszeichnung von archivwürdigen Dokumenten mit Metadaten. Die Verfasser gehen ausführlich auf Strategien ein, die es ermöglichen, Dokumente über lange Zeiträume zu identifizieren und wieder aufzufinden. Anschließend werden die standardisierten Dokumentbeschreibungssprachen TIFF, PDF, HTML, XML, RDF, Topic Maps und DAML+OIL vorgestellt. Jede dieser Sprachen wird zusammenfassend und verständlich beschrieben und im Hinblick auf ihre Bedeutung für die Langzeitarchivierung bewertet. Ein Ausblick auf das Semantic Web schließt das Kapitel ab. Die abschließende Diskussion des methodischen Überblicks fasst zunächst die Folgerungen aus den vorhergehenden Kapiteln anschaulich zusammen, weist auf derzeit noch offene Fragen hin und zeigt den Stand des Machbaren auf. Mit einem vierstufigen kombinierten Lösungsansatz plädieren die Autoren dafür, dass man sich aufmachen sollte, einen eigenen Lösungsweg zu entwickeln, der den organisationsspezifischen Problemen und Anforderungen gerecht wird - gerade weil es noch keine allgemein verbindliche und sichere Lösung gibt. Der zweite Teil des Buchs über einschlägige nationale und internationale Initiativen und Projekte richtet sich vor allem an den Praktiker. Der eine oder andere Leser könnte von den detaillierten Projektbeschreibungen überfordert sein.
    Zunächst geht es um die Verwendung von Dokumentauszeichnung in der Praxis. Projektbeispiele sind die internationale Dublin-Core-Metadaten-Initiative (DCMI) und das australische Archivierungsprojekt Victorian Electronic Records Strategy (VERS). Der Archivierungsbehörde des Staates Victoria geht es vor allem darum, wie Langzeitarchivierung unter Berücksichtigung gängiger Standards und mit minimalem Aufwand hinsichtlich der Metadaten im Rahmen eines behördlichen Archivierungssystems funktionieren kann. Exemplarisch werden weiter die philologische Text Encoding Initiative (TEI), die Programme und Projekte der US-amerikanischen Research Libraries Group (RLG) und das australische Internet-Archivierungsprojekt Pandora vorgestellt. Alle Projektprofile unterstreichen die Bedeutung von Markup für die Archivierungspraxis. In einem weiteren Abschnitt werden Chancen und Risiken der Migration anhand von vier Projekten beleuchtet. Zur Sprache kommen - wiederum - das australische VERS-Projekt und die US-amerikanischen Projekte Preserving the Whole und Risk Management of Digital Informa-tion. In diesen drei Projekten geht es vor allem um die Migration von Dokumenten. Einen zweiten Schwerpunkt bildet die Datenbankmigration, wie sie im DFGProjekt Langzeitarchivierung Digitaler Medien entwickelt wurde. Die damit verbundenen Probleme und Möglichkeiten werden ausführlich dargestellt und diskutiert. Da die Migrationsstrategie in der praktischen Anwendung sehr viel weiter verbreitet ist als die Emulationsstrategie, werden als Abschluss des Buchs die kritischen Aspekte der Emulation lediglich anhand von Studien und Experimenten aufgezeigt. Das Buch "Langzeitarchivierung. Methoden zur Erhaltung digitaler Dokumente" wendet sich in erster Linie an Bibliothekare, Dokumentare, Archivare und Informatiker, die von Berufs wegen für die langfristige Nutzung digitaler Dokumente zuständig sind. Darüber hinaus möchte es aber auch Managern und Juristen, die mit der Sicherung von Dokumenten befasst sind, oder Politikern, die die regulatorischen Rahmenbedingungen der Archivierung gestalten, eine Einführung in die Thematik geben. Dies gelingt, da der Text in einer gut allgemein verständlichen Sprache geschrieben ist und auch die technischen Sachverhalte klar und nachvollziehbar dargestellt sind. Hilfreich ist die übersichtliche und didaktisch durchdachte Gliederung der Kapitel, denen jeweils eine kurze Zusammenfassung vorangestellt ist und deren Hauptaspekte durch die Verwendung von Marginalien hervorgehoben werden. Aufgrund seiner Aktualität, Vollständigkeit und Verständlichkeit kann das Buch allen als Kompendium zur Langzeitarchivierung empfohlen werden, die an digitaler Kultur interessiert sind. Sicher ist auch sein Einsatz als Lehrbuch lohnenswert."
  19. Rautenstrauch, C.: Tele-Tutoring : Zur Didaktik des kommunikativen Handelns im virtuellen Lernraum (2004) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 4166) [ClassicSimilarity], result of:
          0.04998574 = score(doc=4166,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 4166, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4166)
      0.25 = coord(1/4)
    
    Abstract
    Selbstgesteuerte, am individuellen Lernbedarf orientierte Lernmöglichkeiten, die unabhängig von Zeit und Raum in die Lebensumwelt bzw. Arbeit integriert werden können, werden vor dem Hintergrund lebensbegleitender Lernerfordernisse in der Gesellschaft immer stärker als eine Möglichkeit gesehen, sich wandelnden Qualifikationsanforderungen begegnen zu können und die Kosten für Bildung zu senken. Internetbasiertes Tele-Lernen, derzeit unter dem Schlagwort E-Learning geläufig, hat Hochkonjunktur, wie auf dem diesjährigen 9. Europäischen Kongress und der Fachmesse für Bildungs- und Informationstechnologie, der Learntec festgestellt werden konnte. Da jedoch viele Lernenden mit der Selbststeuerung an Grenzen ihrer Lernkompetenz stoßen und Erwartungen an Tele-Lernangebote durch das bloße zur Verfügung stellen von Informationen und Lernprogrammen im Internet (WBT) nicht zu den gewünschten Erfolgen führen, wird die Rolle von Lehrenden im Tele-Lernen als Lernbegleiter neu fokussiert. Effektives selbstgesteuertes Einzel- und Gruppenlernen erfordert eine gezielte Unterstützung und Begleitung, die durch Tele-Tutoring erbracht werden kann. Die Lernunterstützung erfolgt je nach Tele-Lernszenario in unterschiedlichen virtuellen Kommunikationsräumen und macht eine Didaktik kommunikativen Handelns im virtuellen Seminarraum erforderlich. Dieser Beitrag behandelt die neu zu definierende Lehrrolle und die damit verbundenen didaktischen Aufgaben im virtuellen Lernraum. Zunächst werden als Ausgangspunkt wesentliche Unterschiede der Lehr-/Lernsituation im virtuellen Lernraum im Vergleich zum herkömmlichen Lernen benannt. Anschließend werden Grundszenarien des Lernens und Lehrens im virtuellen Lernraum skizziert, die Kommunikationssituation im OnlineSeminar und das darauf beruhende didaktische Handeln der Tele-Tutoren beschrieben.
    Source
    Wissensorganisation in kooperativen Lern- und Arbeitsumgebungen: Proceedings der 8. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Regensburg, 9.-11. Oktober 2002. Hrsg.: G. Budin u. H.P. Ohly
  20. Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004) 0.01
    0.012496435 = product of:
      0.04998574 = sum of:
        0.04998574 = weight(_text_:und in 4236) [ClassicSimilarity], result of:
          0.04998574 = score(doc=4236,freq=26.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.44176215 = fieldWeight in 4236, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4236)
      0.25 = coord(1/4)
    
    Abstract
    Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications