Search (8 results, page 1 of 1)

  • × author_ss:"Sünkler, S."
  1. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.01
    0.014006624 = product of:
      0.056026496 = sum of:
        0.056026496 = weight(_text_:und in 5022) [ClassicSimilarity], result of:
          0.056026496 = score(doc=5022,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.4407773 = fieldWeight in 5022, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
  2. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.014006624 = product of:
      0.056026496 = sum of:
        0.056026496 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.056026496 = score(doc=5025,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  3. Kerkmann, F.; Sünkler, S.; Schultheiß, S.: ¬Die Suche nach dem "Wie..." : Tutorials als Gegenstand der Suche (2017) 0.01
    0.013205572 = product of:
      0.052822288 = sum of:
        0.052822288 = weight(_text_:und in 3550) [ClassicSimilarity], result of:
          0.052822288 = score(doc=3550,freq=16.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.41556883 = fieldWeight in 3550, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3550)
      0.25 = coord(1/4)
    
    Abstract
    Anleitungen zu verschiedensten Themen, sogenannte Tutorials, erleben seit einiger Zeit einen regelrechten Boom im Web. Immer mehr Angebote werden online gestellt; entsprechend steigt auch der Bedarf an geeigneten Plattformen und Suchinstrumenten, um diese Vielzahl für den Nutzer zu bündeln und durchsuchbar zu machen. Der Beitrag nähert sich dem bislang wenig beachteten Phänomen Tutorial und der Suche nach diesem speziellen Format an. Beleuchtet werden die verschiedenen Begriffsverständnisse der Bezeichnung 'Tutorial' ebenso wie die gesellschaftlichen Treiber, die für den zunehmenden Trend, Tutorials zu produzieren und zu rezipieren sorgen. Derzeit existierende Spezialsuchmaschinen als eine Möglichkeit der Suche nach Tutorials werden in einer Marktsichtung zusammengetragen und mit ihren jeweiligen Stärken und Schwächen beschrieben. Die Erkenntnisse daraus münden in den Anforderungen an eine optimierte Suchlösung für diesen Anwendungszweck und ihre beispielhafte Umsetzung.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.1, S.58-66
  4. Sünkler, S.: Prototypische Entwicklung einer Software für die Erfassung und Analyse explorativer Suchen in Verbindung mit Tests zur Retrievaleffektivität (2012) 0.01
    0.011672186 = product of:
      0.046688743 = sum of:
        0.046688743 = weight(_text_:und in 479) [ClassicSimilarity], result of:
          0.046688743 = score(doc=479,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3673144 = fieldWeight in 479, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=479)
      0.25 = coord(1/4)
    
    Abstract
    Gegenstand dieser Arbeit ist die Entwicklung eines funktionalen Prototyps einer Webanwendung für die Verknüpfung der Evaluierung von explorativen Suchen in Verbindung mit der Durchführung klassisches Retrievaltests. Als Grundlage für die Programmierung des Prototyps werden benutzerorientierte und systemorientierte Evalulierungsmethoden für Suchmaschinen analysiert und in einem theoretischen Modell zur Untersuchung von Informationssysteme und Suchmaschinen kombiniert. Bei der Gestaltung des Modells und des Prototyps wird gezeigt, wie sich aufgezeichnete Aktionsdaten praktisch für die Suchmaschinenevaluierung verwenden lassen, um auf der einen Seite eine Datengrundlage für Retrievaltests zu gewinnen und andererseits, um für die Auswertung von Relevanzbewertungen auch das implizierte Feedback durch Handlungen der Anwender zu berücksichtigen. Retrievaltests sind das gängige und erprobte Mittel zur Messung der Retrievaleffektiviät von Informationssystemen und Suchmaschinen, verzichten aber auf eine Berücksichtigung des tatsächlichen Nutzerverhaltens. Eine Methode für die Erfassung der Interaktionen von Suchmaschinennutzern sind protokollbasierte Tests, mit denen sich Logdateien über Benutzer einer Anwendung generieren lassen. Die im Rahmen der Arbeit umgesetzte Software bietet einen Ansatz, Retrievaltests auf Basis protokollierter Nutzerdaten in Verbindung mit kontrollierten Suchaufgaben, durchzuführen. Das Ergebnis dieser Arbeit ist ein fertiger funktionaler Prototyp, der in seinem Umfang bereits innerhalb von Suchmaschinenstudien nutzbar ist.
    Content
    Masterarbeit im Studiengang Informationswissenschaft und -management.
  5. Sünkler, S.; Kerkmann, F.; Schultheiß, S.: Ok Google . the end of search as we know it : sprachgesteuerte Websuche im Test (2018) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 5626) [ClassicSimilarity], result of:
          0.043576162 = score(doc=5626,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 5626, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5626)
      0.25 = coord(1/4)
    
    Abstract
    Sprachsteuerungssysteme, die den Nutzer auf Zuruf unterstützen, werden im Zuge der Verbreitung von Smartphones und Lautsprechersystemen wie Amazon Echo oder Google Home zunehmend populär. Eine der zentralen Anwendungen dabei stellt die Suche in Websuchmaschinen dar. Wie aber funktioniert "googlen", wenn der Nutzer seine Suchanfrage nicht schreibt, sondern spricht? Dieser Frage ist ein Projektteam der HAW Hamburg nachgegangen und hat im Auftrag der Deutschen Telekom untersucht, wie effektiv, effizient und zufriedenstellend Google Now, Apple Siri, Microsoft Cortana sowie das Amazon Fire OS arbeiten. Ermittelt wurden Stärken und Schwächen der Systeme sowie Erfolgskriterien für eine hohe Gebrauchstauglichkeit. Diese Erkenntnisse mündeten in dem Prototyp einer optimalen Voice Web Search.
  6. Lewandowski, D.; Sünkler, S.: ¬Das Relevance Assessment Tool : eine modulare Software zur Unterstützung bei der Durchführung vielfältiger Studien mit Suchmaschinen (2019) 0.01
    0.010439921 = product of:
      0.041759685 = sum of:
        0.041759685 = weight(_text_:und in 5026) [ClassicSimilarity], result of:
          0.041759685 = score(doc=5026,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.328536 = fieldWeight in 5026, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5026)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel stellen wir eine Software vor, mit der sich Studien zu Such- und Informationssystemen realisieren lassen. Das Relevance Assessment Tool (RAT) soll umfangreiche Untersuchungen mit Daten von kommerziellen Suchmaschinen unterstützen. Die Software ist modular und webbasiert. Es lassen sich damit automatisiert Daten von Suchmaschinen erfassen. Dazu können Studien mit Fragen und Skalen flexibel gestaltet und die Informationsobjekte anhand der Fragen durch Juroren bewertet werden. Durch die Modularität lassen sich die einzelnen Komponenten für eine Vielzahl von Studien nutzen, die sich auf Web-Inhalte beziehen. So kann die Software auch für qualitative Inhaltsanalysen eingesetzt werden oder durch das automatisierte Scraping eine große Datenbasis an Web-Dokumenten liefern, die sich quantitativ in empirischen Studien analysieren lassen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.46-56
  7. Graner, B.; Fresenborg, M.; Lühr, A.; Seifert, J.; Sünkler, S.: Schriftgutverwaltung an der Hochschule : Entwicklung eines aufgabenorientierten Aktenplans für die Hochschule für Angewandte Wissenschaften Hamburg (2009) 0.01
    0.009434516 = product of:
      0.037738062 = sum of:
        0.037738062 = weight(_text_:und in 3134) [ClassicSimilarity], result of:
          0.037738062 = score(doc=3134,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.2968967 = fieldWeight in 3134, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3134)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen eines studentischen Projektes haben Studierende der HAW Hamburg im Wintersemester 2008/2009 ein Konzept für ein elektronisches Schriftgutverwaltungssystem für die Hochschulverwaltung der HAW Hamburg erarbeitet. Hierzu wurde ein aufgabenorientierter Aktenplan für die gesamte Hochschule entwickelt, ein Vorschlag für ein Rollenkonzept zur Steuerung der Zugriffsmöglichkeiten auf die Akten gemacht und das Konzept prototypisch zu Test- und Demonstrationszwecken unter Einsatz des elektronischen Schriftgutverwaltungssystems DoRIS® umgesetzt.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.6/7, S.383-386
  8. Sünkler, S.; Kerkmann, F.: How to do ... ? : Konzeption einer Spezialsuchmaschine für Tutorials (2016) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 2570) [ClassicSimilarity], result of:
          0.024900664 = score(doc=2570,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 2570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2570)
      0.25 = coord(1/4)
    
    Abstract
    Das übergeordnete Ziel des Projektes bestand darin, eine hochschuleigene Suchmaschine zu konzipie ­ ren und diese ausgehend von einer Ideenskizze über ein theoretisches Konzept hin zu einem lauffähigen Alpha ­ Prototyp umzusetzen, der die theoretischen Überlegungen in Ansätzen praktisch nutzbar machen sollte.