Search (111 results, page 4 of 6)

  • × theme_ss:"Dokumentenmanagement"
  1. Tappenbeck, I.: Infrastrukturen für die Archivierung digitaler Dokumente : Ein Tagungsbericht (2001) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 5651) [ClassicSimilarity], result of:
          0.0409647 = score(doc=5651,freq=16.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 5651, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5651)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Entstehung digitaler Medien haben sich auch neue Formen der Produktion, Publikation und Distribution wissenschaftlicher Information entwickelt: Elektronische Sekundärveröffentlichungen, aber auch genuin elektronische Publikationen, Publishing-on-Demand sowie die Möglichkeit des Zugriffs auf Dokumente im Pay-per-View-Verfahren sind nur einige Beispiele für diese Veränderungen. Mit der steigenden Anzahl und Relevanz digitaler Ressourcen nimmt aber auch die Frage nach den Möglichkeiten und Bedingungen ihrer zuverlässigen Archivierung an Dringlichkeit zu. Dies betrifft sowohl die Sicherung der Datenspeicherung als auch den zukünftigen Zugriff auf die in ihnen enthaltenen Informationen. Die Faktoren, die einer einfachen Lösung dieser Aufgabe entgegenstehen, sind vielfältig: Der rasante Technologiewechsel im IT-Bereich erschwert den Zugriff auf ältere Datenformate und erfordert eine Emulation der ursprünglichen technischen Umgebung eines Dokuments bzw. die Migration der Daten selbst. Vor allem aber fehlen Standards für die Archivierung digitaler Ressourcen, die vorgeben, welche Informationen für die Langzeitarchivierung erforderlich sind, und die einen Rahmen für die Erstellung und Pflege dieser Informationen bereitstellen. Um sich einer Lösung dieser Probleme zu nähern, trafen sich Vertreter internationaler Institutionen aus dem Archiv-, Bibliotheks- und IT-Bereich vom 6. bis zum 8. Dezember 2000 in York anlässlich der von Cedars ausgerichteten Konferenz "Preservation 2000" und des dieser Konferenz vorausgehenden eintägigen Workshops jnformation Infrastructures for Digital Preservation". Im folgenden soll ein Überblick über die Inhalte der im Rahmen beider Veranstaltungen gehaltenen Vorträge gegeben werden
  2. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 5863) [ClassicSimilarity], result of:
          0.0409647 = score(doc=5863,freq=16.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 5863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5863)
      0.25 = coord(1/4)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  3. Hesselbarth, A.: What you see is all you get? : Konzept zur Optimierung des Bildmanagements am Beispiel der jump Fotoagentur (2008) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 1938) [ClassicSimilarity], result of:
          0.0409647 = score(doc=1938,freq=16.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 1938, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1938)
      0.25 = coord(1/4)
    
    Abstract
    Thema dieser Arbeit ist eine Untersuchung des digitalen Bilderhandels. Es wird die Akzeptanz und die Nutzung von Bilddatenbanken in der Bildbranche analysiert, mit dem Ziel, ein Optimierungskonzept für die Bilddatenbank der jump Fotoagentur zu entwerfen. Zur Einführung werden die Grundlagen der Bildbranche erläutert und auf die Beteiligten und ihre Aufgabenbereiche eingegangen. Es folgt eine Darstellung der Entwicklung der Digitalisierung und den dadurch verursachten Wandel des Bildermarktes. Im Anschluss werden die Möglichkeiten des Bildmanagements und deren Zusammenhang mit der Bildvermarktung aufgezeigt. Weiterhin wird das Bildmanagement-System der jump Fotoagentur näher beschrieben. Mit Hilfe der gewonnen Ergebnisse aus der durchgeführten Befragung wird ein Konzept zur Verbesserung dieses Systems erstellt. Die Erkenntnisse werden zusammengefasst und ein Ausblick auf die Zukunft des digitalen Bilderhandels gegeben.
    Content
    Inhaltsverzeichnis: 1. Einleitung 2. Grundlagen der Bildbranche 2.1. Aufbau der Bildbranche 3. Zur Situation des Bildermarktes 3.1. Entwicklung der Digitalisierung 3.2. Internationalisierung und Global Player 3.3. Folgen der Digitalisierung 4. Bildmanagement - Bildmarketing 4.1. Kataloge 4.2. Bilddatenbanken 4.3. Portale 5. Die jump Fotoagentur 5.1. Die Agentur 5.2. Das Bildarchiv 5.3. Die Bilddatenbank 5.4. Der Digitalisierungsprozess 6. Befragung zur Nutzung der jump-Datenbank 6.1. Konzeption der Befragung 6.2. Durchuehrung der Digitalisierung 6.3. Auswertung der Befragung 6.4. Ergebnisse der Befragung 7. Konzept zur Optimierung des Bildmanagements 8. Zusammenfassung und Ausblick
  4. Haessler, J.: Entwicklung von Records Management Software : "Weg von einzelnen Projektlösungen hin zum Softwarehersteller" (2009) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.0409647 = score(doc=3128,freq=4.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 3128, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3128)
      0.25 = coord(1/4)
    
    Abstract
    Records Management Software wird in Deutschland auch von vielen kleinen und mittelständischen Unternehmen entwickelt. Die IWP sprach mit Joachim Haessler, dem Inhaber der Schwarzwälder Firma HAESSLER. Das Interview führte Ulrike Spree.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.365-368
  5. Toebak, P.: ¬Das Dossier nicht die Klassifikation als Herzstück des Records Management (2009) 0.01
    0.010241175 = product of:
      0.0409647 = sum of:
        0.0409647 = weight(_text_:und in 3220) [ClassicSimilarity], result of:
          0.0409647 = score(doc=3220,freq=16.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34630734 = fieldWeight in 3220, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3220)
      0.25 = coord(1/4)
    
    Abstract
    Die September/Oktober-Ausgabe 2009 der IWP ist eine Schwerpunktausgabe zum Records Management. Es ist interessant, dass einmal aus fachlich ganz anderer Perspektive auf diese Management- Disziplin geschaut wird. Viele Aspekte werden angesprochen: Terminologie, Rolle des Archivwesens, Interdisziplinarität, Langzeitaufbewahrung und Standardisierung. Im Artikel "Wissensorganisation und Records Management. Was ist der 'state of the art'?" steht die Wissensorganisation als Schwachstelle des Records Management zentral. Dies zu Recht: Das logische Datenmodell von DOMEA - das Gleiche gilt für GEVER und ELAK - entspricht beispielsweise nicht in allen Hinsichten der Geschäftsrealität. Daraus entstehen für die Mitarbeitenden im Arbeitsalltag öfters mehr Verständnisprobleme als sie bewältigen können oder wollen. Die systemische Unterstützung der eingesetzten EDRMS (nicht alle Produkte verdienen übrigens diesen Namen) wird dadurch geschwächt. Die Wissensorganisation genügt in vielen Fällen (noch) nicht. Das Problem liegt allerdings weniger bei der Klassifikation (Aktenplan), wie Ulrike Spree meint. Auch hier kommen Anomalien vor. Ein Ordnungssystem im Records Management umfasst mehr als nur die Klassifikation. Zudem dürfen die prinzipiellen, inhärenten Unterschiede zwischen Records Management einerseits und Wissens- und Informationsmanagement andererseits nicht vergessen gehen. Nicht die Klassifikation ist beim Records Management das zentrale Werkzeug der Informationsrepräsentation und -organisation, sondern die saubere Dossierbildung und die stringente, strukturstabile Umsetzung davon im Datenmodell. Hierauf geht die Autorin nicht ein. Ich werde aus dieser Sicht auf ihren Beitrag in der Schwerpunktausgabe reagieren.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.8, S.443-446
  6. Wulf, F.: Bilder im Online-Zugriff : Datenbanktechnik für Bildagenturen (1994) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 4832) [ClassicSimilarity], result of:
          0.040552985 = score(doc=4832,freq=2.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 4832, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4832)
      0.25 = coord(1/4)
    
    Source
    Information und Medienvielfalt: 16. Online-Tagung der DGD, Frankfurt am Main, 17.-19.5.1994. Proceedings. Hrsg.: W. Neubauer u. R. Schmidt
  7. Lippold, H.; Hett, H.M.: BIFOA-Marktstudie Retrievalsoftware für die elektronische Dokumentenverwaltung (1992) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 1269) [ClassicSimilarity], result of:
          0.040552985 = score(doc=1269,freq=2.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 1269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1269)
      0.25 = coord(1/4)
    
    Footnote
    BIFOA = Betriebswirtschaftliches Institut für Organisation und Automation and der Universität zu Köln
  8. Zoller, P.: ¬Die wohldurchdachte Aufbereitung des Informationsangebotes : Teil einer computergestützten Sachbearbeitung (1992) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 1333) [ClassicSimilarity], result of:
          0.040552985 = score(doc=1333,freq=8.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 1333, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1333)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen einer Vorgangssteuerung wird die Benutzerschnittstelle durch zahlreiche Informationen, wie Dokumente, Büro-Kommunikations-Nachrichten, Anweisungen, Handbuchausschnitte und Notizen angereichert. Diese Informationen müssen dem Benutzer kontextuell und übersichtlich angeboten werden. Ziel wird es somit sein, über die Spezifizierung eines Arbeitskontextes eine - am Benutzer, an der Aufgabe wie auch an der aktuellen Situation sich orientierende - Beschränkung der Daten- und Dokumentenvielfalt vorzunehmen, die es dem Benutzer erlaubt, mit möglichst geringem Aufwand die gewünschten Elemente seiner Diskurswelt ansprechen zu können
    Source
    Kognitive Ansätze zum Ordnen und Darstellen von Wissen. 2. Tagung der Deutschen ISKO Sektion einschl. der Vorträge des Workshops "Thesauri als Werkzeuge der Sprachtechnologie", Weilburg, 15.-18.10.1991
  9. ¬Das papierlose Archiv : Abspecken mit digitaler Speicherverwaltung (1995) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 1788) [ClassicSimilarity], result of:
          0.040552985 = score(doc=1788,freq=8.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 1788, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1788)
      0.25 = coord(1/4)
    
    Abstract
    Zuerst erkannt haben es Versicherungen, Landesbausparkassen, Verlage wie Gruner&Jahr sowie das europäische Patentamt. Bevor das eigene Unternehmen unter der Flut von Informationen zu ersticken droht, müssen die riesigen Papierberge abgetragen und die Verwaltung entschlackt werden. Die Zauberformel dafür: Dokumenten-Management-Systeme (DMS). Neue elektronische Speicher- und Archivierungssysteme bieten dem Unternehmer viele Vorteile: Sie sparen Kosten, denken den Verwaltungsaufwand und steigern dadurch die Leistung der Firma. Inzwischen ist DMS nicht nur für die Großen ein Thema: Freiberufler, Rechtsanwälte, Wirtschaftsprüfer, Steuerberater und Arztpraxen suchen ebenfalls einen Ausweg aus dem Papierchaos. Denn bereits in 2 Jahren, so die düstere Aussage amerikanischer Forscher, werden Unternehmen mit papiergebundenen Verwaltungen ums geschäftliche Überleben kämpfen. In Westeuropa steht DMS dagaben noch in den Anfängen: bis 1998 - so die Experten - werden aber die Nachfrage nach DMS-Lösungen auf rund 8 Milliarden steigen
  10. Menne-Haritz, A.: Akten, Vorgänge und elektronische Bürosysteme : Mit Handreichungen für die Beratung von Behörden (1996) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 4136) [ClassicSimilarity], result of:
          0.040552985 = score(doc=4136,freq=2.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 4136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4136)
      0.25 = coord(1/4)
    
  11. Engelhardt, K.: ¬Der Blaue Engel im Archiv : Rettung von Dokumenten durch Digitalisierung an der Hochschule für Film und Fernsehen in Potsdam-Babelsberg (1998) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 3071) [ClassicSimilarity], result of:
          0.040552985 = score(doc=3071,freq=8.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 3071, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3071)
      0.25 = coord(1/4)
    
    Abstract
    Internationale Film- und Fernsehgeschichte ist vielerorts dokumentiert, nicht nur in der Bibliothek der Hochschule für Film und Fernsehen Babalsberg (HFF). Aber eine wirklich umfassende Dokumentation der DDR-Film- und Mediengeschichte gibt es nur an der HFF. Einen besonderen Schwerpunkt zur DEFA bietet das dortige Zeitungsausschnittarchiv. Um hier einmalige Originale vor Zerstörung durch zu intensiven Recherchebetrieb zu schützen, wurde eine elektronische Archivlösung realisiert, die in der Vorbereitung der Zeitungsdokumente für den Scanvorgang die größten Probleme aufwarf. Nun kann bei der HFF auch in diesen Altbeständen elektronisch recherchiert werden
  12. Kokaly, R.: Trends der Dokumenten-Technologien in Europa : Ergebnisse einer Studie der Gartner Group (1999) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 4093) [ClassicSimilarity], result of:
          0.040552985 = score(doc=4093,freq=2.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 4093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=4093)
      0.25 = coord(1/4)
    
    Source
    nfd Information - Wissenschaft und Praxis. 50(1999) H.6, S.363-366
  13. Holzheid, G.: Dublin Core, SGML und die Zukunft der Erschließung am Beispiel einer Studie zur Optimierung des Dokumentenmanagements einer großen Nichtregierungsorganisation (2005) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 2192) [ClassicSimilarity], result of:
          0.040552985 = score(doc=2192,freq=8.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 2192, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2192)
      0.25 = coord(1/4)
    
    Abstract
    Immer mehr Informationsobjekte werden in digitaler Form publiziert. In der vorliegenden Arbeit werden die Auswirkungen der Digitalisierung auf bibliothekarische Erschließungsmethoden dargestellt: einerseits die Funktion der Auszeichnungssprachen SGML, HTML und XML als Erschließungsinstrumente, andererseits der von bibliothekarischer Seite entwickelte Metadatenstandard Dublin Core. Am Praxisbeispiel "Dokumentenmanagement einer Nichtregierungsorganisation" wird untersucht, ob die Erschließung verbessert werden könnte durch z.B. Optimierung der Volltextindizierung, standardisierte Metadaten oder Integration von Metadaten und Suchmaschinentechnologie. Mithilfe einer Benutzerbefragung werden diese Ansätze an der Praxis gemessen und konkrete Empfehlungen entwickelt. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin. Online-Version: http://www.ib.hu-berlin.de/~kumlau/handreichungen/h136/.
  14. Scholz, K.: Verknüpfung von Text, Fakten, Graphik und Bild zu einer Wissensbasis mit dem Informationssystem aDIS (1989) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 1037) [ClassicSimilarity], result of:
          0.040552985 = score(doc=1037,freq=2.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 1037, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=1037)
      0.25 = coord(1/4)
    
  15. Szulc, J.: Document management in the the Polish central catalogues (2017) 0.01
    0.010138246 = product of:
      0.040552985 = sum of:
        0.040552985 = weight(_text_:und in 3512) [ClassicSimilarity], result of:
          0.040552985 = score(doc=3512,freq=8.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.34282678 = fieldWeight in 3512, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3512)
      0.25 = coord(1/4)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  16. Adamik, P.: Kampf der Papierlawine : Dokumenten-Management-Systeme in der Kanzlei (1995) 0.01
    0.010034262 = product of:
      0.04013705 = sum of:
        0.04013705 = weight(_text_:und in 1618) [ClassicSimilarity], result of:
          0.04013705 = score(doc=1618,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.33931053 = fieldWeight in 1618, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1618)
      0.25 = coord(1/4)
    
    Abstract
    Zeitersparnis, Produktivitätssteigerung und verbesserte Arbeitsbedingungen erhoffte man sich durch moderne Computertechnologien in der Bürowelt. Der Einsatz von elektronischen Dokumenten-Management-Systemen (DMS) soll jetzt gar den Traum vom papierarmen Büro Realität werden lassen. Durch den Preisverfall bei DV-Komponenten und immer leistugsstärkeren Systemen werden diese Lösungen mittlerweile auch für kleinere Büros und Kanzleien interessant. Trotzdem tun sich die Anwender mit der Einführung von DMS noch schwer
  17. Siegling, I.: Dateien auf dem Index : Dokumentenmanagement zu Hause (2000) 0.01
    0.010034262 = product of:
      0.04013705 = sum of:
        0.04013705 = weight(_text_:und in 5320) [ClassicSimilarity], result of:
          0.04013705 = score(doc=5320,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.33931053 = fieldWeight in 5320, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5320)
      0.25 = coord(1/4)
    
    Abstract
    Verzeichnisse auf der Festplatte, Unterordner, Dateien - die Daten, auf die man gerade wieder zugreifen möchte, könnten überall liegen. Dokumentenmanagement-Systeme wollen helfen, diese Informationen anhand ihres Inhaltes zu strukturieren, damit man sie themenbezogen und schnell wieder finden kann. Solche Programmpakete sind oft groß und teuer, es gibt aber auch anbieter, die mit schlanken und preisgünstigen Programmversionen an den Heimanwender denken
  18. Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003) 0.01
    0.010034262 = product of:
      0.04013705 = sum of:
        0.04013705 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
          0.04013705 = score(doc=1507,freq=24.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.33931053 = fieldWeight in 1507, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1507)
      0.25 = coord(1/4)
    
    Abstract
    Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
    Source
    Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
  19. Mateika, O,: Feasibility-Studie zur Eignung der Pressedatenbank Archimedes zum Einsatz in der Pressedokumentation des Norddeutschen Rundfunks (2004) 0.01
    0.010034262 = product of:
      0.04013705 = sum of:
        0.04013705 = weight(_text_:und in 3712) [ClassicSimilarity], result of:
          0.04013705 = score(doc=3712,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.33931053 = fieldWeight in 3712, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3712)
      0.25 = coord(1/4)
    
    Abstract
    Das Datenbanksystem Planet, derzeit eingesetzt als Information Retrieval System in Pressearchiven innerhalb des SAD-Verbunds der ARD, soll durch ein mindestens gleichwertiges System abgelöst werden. Archimedes, derzeit eingesetzt im Dokumentationsbereich des Westdeutschen Rundfunks Köln, ist eine mögliche Alternative. Ob es die Vorgaben und Anforderungen erfüllt, wird mit Hilfe einer Feasibility-Studie geprüft, notwendige Funktionalitäten und strategisch-qualitative Anforderungen bewertet.
    Imprint
    Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
  20. Kampffmeyer, U.; Wasniewski, A.: MoReq2010 - Der europäische Records-Management-Standard (2011) 0.01
    0.010034262 = product of:
      0.04013705 = sum of:
        0.04013705 = weight(_text_:und in 4904) [ClassicSimilarity], result of:
          0.04013705 = score(doc=4904,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.33931053 = fieldWeight in 4904, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4904)
      0.25 = coord(1/4)
    
    Abstract
    Am 8. Juni 2011 veröffentlichte das DLM Forum die Core Services und Plug-in-Module für die Modular Requirements for Record Systems (MoReq2010®)-Spezifikation für elektronische Records-Management- Systeme (ERMS). Kaum veröffentlicht, spalten sich die Meinungen hinsichtlich Funktionalität und Nützlichkeit des neuen Standards. Ist eine Neu-Vermessung der ERM-Systeme notwendig oder wird mit MoReq2010 lediglich ein weiterer Records Management-Standard übers Knie gebrochen?
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.289-294

Authors

Languages

  • d 107
  • e 4
  • More… Less…

Types

  • a 82
  • x 15
  • m 10
  • el 4
  • s 2
  • ? 1
  • r 1
  • More… Less…