Search (215 results, page 6 of 11)

  • × theme_ss:"Computerlinguistik"
  1. Zimmermann, H.H.: Linguistische Verfahren zur Archivierung und zum Wiederfinden unstrukturierter Texte (1983) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.043576162 = score(doc=557,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 557, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=557)
      0.25 = coord(1/4)
    
    Abstract
    Die technologischen Entwicklungen der 80er und 90er Jahre werden den Bedarf an intelligenten Verfahren in der automatischen Texterschließung und -archivierung sprunghaft steigen lassen. Inzwischen existieren eine Reihe linguistischer Verfahren, die auch große Datenmengen, wie sie in der Büro- und Fachkommunikation auftreten, zu bewältigen helfen. Dabei ist eine wesentliche Zielsetzung, den Anwender von 'technischen' Handhabungen, wie sie die herkömmlichen Informations-Retrieval-Systeme noch erfordern, schrittweise zu entlasten in Richtung auf einen ehe natürlichsprachigen Zugang. Während dabei in den nächsten Jahren 'verstehensorietierte' Ansätze nur in ausgewählten Bereichen zum Einsatz kommen können, werden Verfahren auf morphologisch-syntaktischer Basis die bisherigen oberflächenorientierten Systeme schrittweise ersetzen
  2. Babik, W.: Keywords as linguistic tools in information and knowledge organization (2017) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 3510) [ClassicSimilarity], result of:
          0.043576162 = score(doc=3510,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 3510, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3510)
      0.25 = coord(1/4)
    
    Source
    Theorie, Semantik und Organisation von Wissen: Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization'. Hrsg. von W. Babik, H.P. Ohly u. K. Weber
  3. Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 3977) [ClassicSimilarity], result of:
          0.043576162 = score(doc=3977,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 3977, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3977)
      0.25 = coord(1/4)
    
    Abstract
    OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
  4. Sünkler, S.; Kerkmann, F.; Schultheiß, S.: Ok Google . the end of search as we know it : sprachgesteuerte Websuche im Test (2018) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 5626) [ClassicSimilarity], result of:
          0.043576162 = score(doc=5626,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 5626, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5626)
      0.25 = coord(1/4)
    
    Abstract
    Sprachsteuerungssysteme, die den Nutzer auf Zuruf unterstützen, werden im Zuge der Verbreitung von Smartphones und Lautsprechersystemen wie Amazon Echo oder Google Home zunehmend populär. Eine der zentralen Anwendungen dabei stellt die Suche in Websuchmaschinen dar. Wie aber funktioniert "googlen", wenn der Nutzer seine Suchanfrage nicht schreibt, sondern spricht? Dieser Frage ist ein Projektteam der HAW Hamburg nachgegangen und hat im Auftrag der Deutschen Telekom untersucht, wie effektiv, effizient und zufriedenstellend Google Now, Apple Siri, Microsoft Cortana sowie das Amazon Fire OS arbeiten. Ermittelt wurden Stärken und Schwächen der Systeme sowie Erfolgskriterien für eine hohe Gebrauchstauglichkeit. Diese Erkenntnisse mündeten in dem Prototyp einer optimalen Voice Web Search.
  5. Hahn, U.: Automatische Sprachverarbeitung (2023) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.043576162 = score(doc=790,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 790, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=790)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Kapitel gibt eine Übersicht über die maschinelle Verarbeitung natürlicher Sprachen (wie das Deutsche oder Englische; natural language - NL) durch Computer. Grundlegende Konzepte der automatischen Sprachverarbeitung (natural language processing - NLP) stammen aus der Sprachwissenschaft (s. Abschnitt 2) und sind in zunehmend selbstständiger Weise mit formalen Methoden und technischen Grundlagen der Informatik in einer eigenständigen Disziplin, der Computerlinguistik (CL; s. Abschnitte 3 und 4), verknüpft worden. Natürlichsprachliche Systeme (NatS) mit anwendungsbezogenen Funktionalitätsvorgaben bilden den Kern der informationswissenschaftlich geprägten NLP, die häufig als Sprachtechnologie oder im Deutschen auch (mittlerweile veraltet) als Informationslinguistik bezeichnet wird (s. Abschnitt 5).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  6. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
          0.043129217 = score(doc=4891,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 4891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4891)
      0.25 = coord(1/4)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  7. Ruge, G.: Sprache und Computer : Wortbedeutung und Termassoziation. Methoden zur automatischen semantischen Klassifikation (1995) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 1534) [ClassicSimilarity], result of:
          0.043129217 = score(doc=1534,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 1534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1534)
      0.25 = coord(1/4)
    
    Series
    Sprache und Computer; Bd.14
  8. Frobese, D.T.: Klassifikationsaufgaben mit der SENTRAX : Konkreter Fall: Automatische Detektion von SPAM (2006) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 5980) [ClassicSimilarity], result of:
          0.043129217 = score(doc=5980,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 5980, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5980)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchfunktionen des SENTRAX-Verfahrens werden für die Klassifizierung von Mails und im Besonderen für die Detektion von SPAM eingesetzt. Die Eigenschaften einer kontextähnlichen Suche und die Fehlertoleranz sollen genutzt werden, um SPAM Nachrichten treffsicher aufzuspüren.
    Footnote
    Beitrag der Proceedings des Fünften Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2006), Hildesheim, xx.x.2006.
  9. Bubenhofer, N.: Einführung in die Korpuslinguistik : Praktische Grundlagen und Werkzeuge (2006) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 3126) [ClassicSimilarity], result of:
          0.043129217 = score(doc=3126,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 3126, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3126)
      0.25 = coord(1/4)
    
    Abstract
    Seit über zwei Jahren ist die Einführung in die Korpuslinguistik online! Und sie wird rege benutzt, so z.B. in Veranstaltungen an den Universitäten Heidelberg (Ekkehard Felder), Jena (Peter Gallmann), Zürich (Christa Dürscheid), Kiel (Ulrike Mosel), Leipzig (Uwe Quasthoff), am Institut für Computerlinguistik in Zürich (Simon Clematide); die Website von COSMAS II des IDS, das Korpus Südtirol, die LinseLinks, der Gateway to Corpus Linguistics und die Wikipedia verweisen darauf.
  10. Baierer, K.; Zumstein, P.: Verbesserung der OCR in digitalen Sammlungen von Bibliotheken (2016) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 2818) [ClassicSimilarity], result of:
          0.043129217 = score(doc=2818,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 2818, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2818)
      0.25 = coord(1/4)
    
    Abstract
    Möglichkeiten zur Verbesserung der automatischen Texterkennung (OCR) in digitalen Sammlungen insbesondere durch computerlinguistische Methoden werden beschrieben und bisherige PostOCR-Verfahren analysiert. Im Gegensatz zu diesen Möglichkeiten aus der Forschung oder aus einzelnen Projekten unterscheidet sich die momentane Anwendung von OCR in der Bibliothekspraxis wesentlich und nutzt das Potential nur teilweise aus.
    Content
    Beitrag in einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl.: http://0277.ch/ojs/index.php/cdrs_0277/article/view/155/353.
  11. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.01
    0.010782304 = product of:
      0.043129217 = sum of:
        0.043129217 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.043129217 = score(doc=4217,freq=24.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33931053 = fieldWeight in 4217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4217)
      0.25 = coord(1/4)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
  12. Hahn, U.: Informationslinguistik : II: Einführung in das linguistische Information Retrieval (1985) 0.01
    0.01054811 = product of:
      0.04219244 = sum of:
        0.04219244 = weight(_text_:und in 3116) [ClassicSimilarity], result of:
          0.04219244 = score(doc=3116,freq=30.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.33194062 = fieldWeight in 3116, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3116)
      0.25 = coord(1/4)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik II" im SS 1983 bzw. SS 1984. Es ist im Juli 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1982-84) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Im Unterschied zum Skript "Informationslinguistik I" (HAHN 1985) laesst das vorliegende Skript wahlweise eine eher methoden- oder mehr systembezogene Darstellung informationslinguistischer Konzepte des experimentellen Information Retrieval zu (beides zusammen schliesst der enge Zeitrahmen eines Sommersemesters ausl). Die Entscheidung darueber sollte wenn moeglich in Abhaengigkeit zur personellen Zusammensetzung des Kurses getroffen werden, wobei - sofern die bislang genachten Erfahrungen verallgemeinerbar sind - sich bei einem nicht ausschliesslich an einer informationslinguistischen Spezialisierung interessierten und damit heterogenen Publikum die mehr systembezogene Praesentation als fuer das Verstaendnis informationslinguistischer Fragestellungen und entsprechender Verfahrensloesungen guenstiger gezeigt hat. Innerhalb dieser Nuancierung besitzt aber auch dieses Skript schon eine akzeptable inhaltliche Stabilitaet. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Kommentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
  13. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.01
    0.010439921 = product of:
      0.041759685 = sum of:
        0.041759685 = weight(_text_:und in 6386) [ClassicSimilarity], result of:
          0.041759685 = score(doc=6386,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.328536 = fieldWeight in 6386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6386)
      0.25 = coord(1/4)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  14. Albrecht, I.: GPT-3: die Zukunft studentischer Hausarbeiten oder eine Bedrohung der wissenschaftlichen Integrität? (2023) 0.01
    0.010439921 = product of:
      0.041759685 = sum of:
        0.041759685 = weight(_text_:und in 881) [ClassicSimilarity], result of:
          0.041759685 = score(doc=881,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.328536 = fieldWeight in 881, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=881)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem Fortschritt künstlicher Intelligenzen sind auch progressive Sprachverarbeitungsmodelle auf den Markt gekommen. GPT-3 war nach seiner Veröffentlichung das leistungsstärkste Modell seiner Zeit. Das Programm generiert Texte, die oft nicht von menschlich verfassten Inhalten zu unterscheiden sind. GPT-3s Größe und Komplexität ermöglichen es, dass es wissenschaftliche Artikel eigenständig schreiben und ausgeben kann, die laut Studien und Untersuchungen zum Bestehen von Universitätskursen ausreichen. Mit der Entwicklung solcher Künstlichen Intelligenzen, insbesondere auf Open Source-Basis, könnten Studierende in Zukunft studentische Hausarbeiten von Textgeneratoren schreiben lassen. Diese Arbeit beschäftigt sich einerseits mit dem Modell GPT-3 und seinen Fähigkeiten sowie Risiken. Andererseits wird die Frage thematisiert, wie Hochschulen und Universitäten in Zukunft mit maschinell verfassten Arbeiten umgehen können.
  15. Manhart, K.: Digitales Kauderwelsch : Online-Übersetzungsdienste (2004) 0.01
    0.0102939 = product of:
      0.0411756 = sum of:
        0.0411756 = weight(_text_:und in 2077) [ClassicSimilarity], result of:
          0.0411756 = score(doc=2077,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32394084 = fieldWeight in 2077, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2077)
      0.25 = coord(1/4)
    
    Abstract
    Eine englische oder französische Website mal schnell ins Deutsche übersetzen - nichts einfacher als das. OnlineÜbersetzungsdienste versprechen den Sprachtransfer per Mausklick und zum Nulltarif. Doch was taugen sie wirklich? Online-Übersetzungsdienste wollen die Sprachbarriere im WWW beseitigen. Die automatischen Übersetzer versprechen, die E-Mail-Korrespondenz verständlich zu machen und das deutschsprachige Surfen in fremdsprachigen Webangeboten zu ermöglichen. Englische, spanische oder gar chinesische EMails und Websites können damit per Mausklick schnell in die eigene Sprache übertragen werden. Auch komplizierte englische Bedienungsanleitungen oder russische Nachrichten sollen für die Dienste kein Problem sein. Und der eine oder andere Homepage-Besitzer träumt davon, mit Hilfe der digitalen Übersetzungshelfer seine deutsche Website in perfektem Englisch online stellen zu können - in der Hoffung auf internationale Kontakte und höhere Besucherzahlen. Das klingt schön - doch die Realität sieht anders aus. Wer jemals einen solchen Dienst konsultiert hat, reibt sich meist verwundert die Augen über die gebotenen Ergebnisse. Schon einfache Sätze bereiten vielen Online-Über setzern Probleme-und sorgen unfreiwillig für Humor. Aus der CNN-Meldung "Iraq blast injures 31 U.S. troops" wird im Deutschen der Satz: "Der Irak Knall verletzt 31 Vereinigte Staaten Truppen." Sites mit schwierigem Satzbau können die Übersetzer oft nur unverständlich wiedergeben. Den Satz "The Slider is equipped with a brilliant color screen and sports an innovative design that slides open with a push of your thumb" übersetzt der bekannteste Online-Dolmetscher Babelfish mit folgendem Kauderwelsch: "Der Schweber wird mit einem leuchtenden Farbe Schirm ausgerüstet und ein erfinderisches Design sports, das geöffnetes mit einem Stoß Ihres Daumens schiebt." Solch dadaistische Texte muten alle Übersetzer ihren Nutzern zu.
  16. Sagawe, H.: Einfluß 'intelligenter' Maschinen auf menschliches Verhalten (1994) 0.01
    0.0102939 = product of:
      0.0411756 = sum of:
        0.0411756 = weight(_text_:und in 1714) [ClassicSimilarity], result of:
          0.0411756 = score(doc=1714,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32394084 = fieldWeight in 1714, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1714)
      0.25 = coord(1/4)
    
    Classification
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
    Content
    Inhalt: 1. Die Mensch-Maschine-Beziehung: Sprache als Element der Mensch-Maschine-Beziehung. Der Sprechakt. Der Befehl als Sprachelement bei der Mensch-Maschine Kommunikation. Weitere Sprachelemente der Mensch-Maschine-Kommunikation. Sprechen Computer anders? Werden wir wie die Computer sprechen? 2. Mikro- und makrosoziologische Einflüsse: Anthropomorphisierung des Computers. Digitalisierte Gesellschaft. Subgruppenspezifischer Einfluß des Computers 3. Schlußbetrachtung 4. Resumee 5. Anhang
    RVK
    MS 4850 Soziologie / Spezielle Soziologien / Wirtschafts- und Industriesoziologie / Industrie (allgemeines) und Technik (Automatisierung)
    ST 278 Informatik / Monographien / Software und -entwicklung / Mensch-Maschine-Kommunikation Software-Ergonomie
  17. Helbig, H.: Wissensverarbeitung und die Semantik der natürlichen Sprache : Wissensrepräsentation mit MultiNet (2008) 0.01
    0.0102939 = product of:
      0.0411756 = sum of:
        0.0411756 = weight(_text_:und in 2731) [ClassicSimilarity], result of:
          0.0411756 = score(doc=2731,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32394084 = fieldWeight in 2731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2731)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch gibt eine umfassende Darstellung einer Methodik zur Interpretation und Bedeutungsrepräsentation natürlichsprachlicher Ausdrücke. Diese Methodik der "Mehrschichtigen Erweiterten Semantischen Netze", das sogenannte MultiNet-Paradigma, ist sowohl für theoretische Untersuchungen als auch für die automatische Verarbeitung natürlicher Sprache auf dem Rechner geeignet. Im ersten Teil des zweiteiligen Buches werden grundlegende Probleme der semantischen Repräsentation von Wissen bzw. der semantischen Interpretation natürlichsprachlicher Phänomene behandelt. Der zweite Teil enthält eine systematische Zusammenstellung des gesamten Repertoires von Darstellungsmitteln, die jeweils nach einem einheitlichen Schema beschrieben werden. Er dient als Kompendium der im Buch verwendeten formalen Beschreibungsmittel von MultiNet. Die vorgestellten Ergebnisse sind eingebettet in ein System von Software-Werkzeugen, die eine praktische Nutzung der MultiNet-Darstellungsmittel als Formalismus zur Bedeutungsrepräsentation im Rahmen der automatischen Sprachverarbeitung sichern. Hierzu gehören: eine Werkbank für den Wissensingenieur, ein Übersetzungssystem zur automatischen Gewinnung von Bedeutungsdarstellungen natürlichsprachlicher Sätze und eine Werkbank für den Computerlexikographen. Der Inhalt des Buches beruht auf jahrzehntelanger Forschung auf dem Gebiet der automatischen Sprachverarbeitung und wurde mit Vorlesungen zur Künstlichen Intelligenz und Wissensverarbeitung an der TU Dresden und der FernUniversität Hagen wiederholt in der Hochschullehre eingesetzt. Als Vorkenntnisse werden beim Leser lediglich Grundlagen der traditionellen Grammatik und elementare Kenntnisse der Prädikatenlogik vorausgesetzt.
  18. Renker, L.: Exploration von Textkorpora : Topic Models als Grundlage der Interaktion (2015) 0.01
    0.0102939 = product of:
      0.0411756 = sum of:
        0.0411756 = weight(_text_:und in 2380) [ClassicSimilarity], result of:
          0.0411756 = score(doc=2380,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32394084 = fieldWeight in 2380, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2380)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss. Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar. Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden. Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden. Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
    Footnote
    Masterthesis zur Erlangung des akademischen Grades Master of Science (M.Sc.) vorgelegt an der Fachhochschule Köln / Fakultät für Informatik und Ingenieurswissenschaften im Studiengang Medieninformatik.
    Imprint
    Gummersbach : Fakultät für Informatik und Ingenieurswissenschaften
  19. Schaer, P.: Sprachmodelle und neuronale Netze im Information Retrieval (2023) 0.01
    0.0102939 = product of:
      0.0411756 = sum of:
        0.0411756 = weight(_text_:und in 799) [ClassicSimilarity], result of:
          0.0411756 = score(doc=799,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.32394084 = fieldWeight in 799, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=799)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahren haben Sprachmodelltechnologien unterschiedlichster Ausprägungen in der Informationswissenschaft Einzug gehalten. Diesen Sprachmodellen, die unter den Bezeichnungen GPT, ELMo oder BERT bekannt sind, ist gemein, dass sie dank sehr großer Webkorpora auf eine Datenbasis zurückgreifen, die bei vorherigen Sprachmodellansätzen undenkbar war. Gleichzeitig setzen diese Modelle auf neuere Entwicklungen des maschinellen Lernens, insbesondere auf künstliche neuronale Netze. Diese Technologien haben auch im Information Retrieval (IR) Fuß gefasst und bereits kurz nach ihrer Einführung sprunghafte, substantielle Leistungssteigerungen erzielt. Neuronale Netze haben in Kombination mit großen vortrainierten Sprachmodellen und kontextualisierten Worteinbettungen geführt. Wurde in vergangenen Jahren immer wieder eine stagnierende Retrievalleistung beklagt, die Leistungssteigerungen nur gegenüber "schwachen Baselines" aufwies, so konnten mit diesen technischen und methodischen Innovationen beeindruckende Leistungssteigerungen in Aufgaben wie dem klassischen Ad-hoc-Retrieval, der maschinellen Übersetzung oder auch dem Question Answering erzielt werden. In diesem Kapitel soll ein kurzer Überblick über die Grundlagen der Sprachmodelle und der NN gegeben werden, um die prinzipiellen Bausteine zu verstehen, die hinter aktuellen Technologien wie ELMo oder BERT stecken, die die Welt des NLP und IR im Moment beherrschen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016) 0.01
    0.009842852 = product of:
      0.03937141 = sum of:
        0.03937141 = weight(_text_:und in 2941) [ClassicSimilarity], result of:
          0.03937141 = score(doc=2941,freq=20.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3097467 = fieldWeight in 2941, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2941)
      0.25 = coord(1/4)
    
    Abstract
    SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
    Content
    "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
    SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."

Years

Languages

  • d 191
  • e 20
  • m 4
  • ru 1
  • More… Less…

Types

  • a 151
  • m 40
  • el 34
  • s 12
  • x 9
  • d 2
  • More… Less…

Subjects

Classifications