Search (45 results, page 3 of 3)

  • × theme_ss:"Automatisches Klassifizieren"
  1. Bollmann, P.; Konrad, E.; Schneider, H.-J.; Zuse, H.: Anwendung automatischer Klassifikationsverfahren mit dem System FAKYR (1978) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 82) [ClassicSimilarity], result of:
          0.022160148 = score(doc=82,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 82, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=82)
      0.25 = coord(1/4)
    
    Abstract
    Es wird ein Verfahren zum Vergelich von Klassifikationen vorgestellt. Es gestattet, die Abweichungen zwischen zwei Klassifikationen zu lokalisieren und erleichtert so die intellektuelle Kontrolle. Das Verfahren ist als Baustein des Systems FAKYR implementiert. Es wird auf Klassifikationen angeandt, die durch graphentheoretische Verfahren entstanden sind. Zunächst wird gezeigt, wie die Veränderung des Schnittes das Klassifikationsergebnis beeinflußt, anschließend wird das Vergleichsverfahren bei der automatischen Erstellung zweisprachiger Termklassen benutzt
  2. Krauth, J.: Evaluation von Verfahren der automatischen Klassifikation (1983) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 111) [ClassicSimilarity], result of:
          0.022160148 = score(doc=111,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 111, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=111)
      0.25 = coord(1/4)
    
    Abstract
    Ein wichtiges Problem der automatischen Klassifikation ist die Frage der Bewertung der Ergebnisse von Klassifikationsverfahren. Hierunter fallen die Aspekte der Beurteilung der Güte von Klassifikationen, des Vergleichs von Klassifikationen, der Validität von Klassifikationen und der Stabilität von Klassifikationsverfahren. Es wird ein Überblick über die verschiedenen Ansätze gegeben
  3. Chan, L.M.; Lin, X.; Zeng, M.: Structural and multilingual approaches to subject access on the Web (1999) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 162) [ClassicSimilarity], result of:
          0.022160148 = score(doc=162,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 162, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=162)
      0.25 = coord(1/4)
    
    Abstract
    Zu den großen Herausforderungen einer sinnvollen Suche im WWW gehören die riesige Menge des Verfügbaren und die Sparchbarrieren. Verfahren, die die Web-Ressourcen im Hinblick auf ein effizienteres Retrieval inhaltlich strukturieren, werden daher ebenso dringend benötigt wie Programme, die mit der Sprachvielfalt umgehen können. Im folgenden Vortrag werden wir einige Ansätze diskutieren, die zur Bewältigung der beiden Probleme derzeit unternommen werden
  4. Zhang, X: Rough set theory based automatic text categorization (2005) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 2822) [ClassicSimilarity], result of:
          0.022160148 = score(doc=2822,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 2822, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2822)
      0.25 = coord(1/4)
    
    Abstract
    Der Forschungsbericht "Rough Set Theory Based Automatic Text Categorization and the Handling of Semantic Heterogeneity" von Xueying Zhang ist in Buchform auf Englisch erschienen. Zhang hat in ihrer Arbeit ein Verfahren basierend auf der Rough Set Theory entwickelt, das Beziehungen zwischen Schlagwörtern verschiedener Vokabulare herstellt. Sie war von 2003 bis 2005 Mitarbeiterin des IZ und ist seit Oktober 2005 Associate Professor an der Nanjing University of Science and Technology.
  5. Lindholm, J.; Schönthal, T.; Jansson , K.: Experiences of harvesting Web resources in engineering using automatic classification (2003) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 4088) [ClassicSimilarity], result of:
          0.022160148 = score(doc=4088,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 4088, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4088)
      0.25 = coord(1/4)
    
    Footnote
    Auch unter: http://www.ariadne.ac.uk/issue37/lindholm/ und http://engine-e.lub.lu.se/