Search (2 results, page 1 of 1)
-
×
author_ss:"Hermes, T."
- Did you mean:
- object_ss:"vicar "judaica und hebraica"" 2
- object_ss:"vilar "judaic und hebraica"" 2
- object_ss:"vilar "judaica und hebraic"" 2
- object_ss:"vicar "judaica und hebraic"" 2
- object_ss:"villar "judaica und hebraica"" 2
-
Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002)
0.01
0.013205572 = product of: 0.052822288 = sum of: 0.052822288 = weight(_text_:und in 213) [ClassicSimilarity], result of: 0.052822288 = score(doc=213,freq=16.0), product of: 0.1271084 = queryWeight, product of: 2.216367 = idf(docFreq=13101, maxDocs=44218) 0.057349887 = queryNorm 0.41556883 = fieldWeight in 213, product of: 4.0 = tf(freq=16.0), with freq of: 16.0 = termFreq=16.0 2.216367 = idf(docFreq=13101, maxDocs=44218) 0.046875 = fieldNorm(doc=213) 0.25 = coord(1/4)
- Abstract
- Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
- Source
- Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
-
Dammeyer, A.; Jürgensen, W.; Krüwel, C.; Poliak, E.; Ruttkowski, S.; Schäfer, Th.; Sirava, M.; Hermes, T.: Videoanalyse mit DiVA (1998)
0.01
0.009337749 = product of: 0.037350997 = sum of: 0.037350997 = weight(_text_:und in 23) [ClassicSimilarity], result of: 0.037350997 = score(doc=23,freq=8.0), product of: 0.1271084 = queryWeight, product of: 2.216367 = idf(docFreq=13101, maxDocs=44218) 0.057349887 = queryNorm 0.29385152 = fieldWeight in 23, product of: 2.828427 = tf(freq=8.0), with freq of: 8.0 = termFreq=8.0 2.216367 = idf(docFreq=13101, maxDocs=44218) 0.046875 = fieldNorm(doc=23) 0.25 = coord(1/4)
- Abstract
- Die Bedeutung von Videos nimmt für multimediale Systeme stetig zu. Dabei existiert eine Vielzahl von Produkten zur Betrachtung von Videos, allerdings nur wenige Ansätze, den Inhalt eines Videos zu erschließen. Das DiVA-System, welches an der Universität Bremen im Rahmen eines studentischen Projektes entwickelt wird, dient der automatischen Analyse von MPEG-I Videofilmen. Der dabei verfolgte Ansatz läßt sich in vier Phasen gliedern. Zunächst wird der Videofilm durch eine Shotanalyse in seine einzelnen Kameraeinstellungen (Shots) unterteilt. Darauf aufbauend findet eine Kamerabewegungsanalyse sowie die Erstellung von Mosaicbildern statt. Mit Methoden der künstlichen Intelligenz und der digitalen Bildverarbeitung wird das analysierte Material nach Bild- und Toninformationen ausgewertet. Das Resultat ist eine textuelle Beschreibung eines Videofilms, auf der mit Hilfe von Text-Retrieval-Systemen recherchiert werden kann
- Imprint
- Bremen : Universität Bremen / Fachbereich Mathematik und Informatik
- Source
- Inhaltsbezogene Suche von Bildern und Videosequenzen in digitalen multimedialen Archiven: Beiträge eines Workshops der KI'98 am 16./17.9.1998 in Bremen. Hrsg.: N. Luth
Authors
- Dammeyer, A. 1
- Ioannidis, G. 1
- Jürgensen, W. 1
- Krüwel, C. 1
- Miene, A. 1
- Poliak, E. 1
- Ruttkowski, S. 1
- Schäfer, Th. 1
- Sirava, M. 1
- More… Less…