Search (500 results, page 2 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Schulz, U.: Search engine usability : über die Nutzungsqualität von Suchmaschinen (2001) 0.01
    0.012484305 = product of:
      0.04993722 = sum of:
        0.04993722 = weight(_text_:und in 5776) [ClassicSimilarity], result of:
          0.04993722 = score(doc=5776,freq=26.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.441457 = fieldWeight in 5776, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5776)
      0.25 = coord(1/4)
    
    Abstract
    Web Usability konnte sich als Forschungsbereich zunächst nur in größeren Firmen der Internet-Branche wie z. B. Icon Medialab etablieren. Mit zunehmender Konkurrenz und ersten Pleiten im E-Commerce entsteht die Einsicht oder bittere Erfahrung, dass bunte, multimediale Internetpräsenz nicht alles ist: Die Nutzungsqualität von Websites tritt in den Vordergrund und damit ein neuer Arbeitsmarkt für Informationsarchitekten und HCI- bzw. Usability-Spezialisten. Suchmaschinen sind eine besondere Kategorie von Website. Sie entstehen in einem Spannungsfeld zweier unterschiedlicher Interessen: Mit kommerziellen Websites teilen sie den Wettbewerb um Kunden und die Art der Kunden: den ungeduldigen gelegentlichen Anwender. Mit der akademischen Welt teilen sie das forschende Bemühen um die Optimierung von Features und Funktionen und die déformation professionelle der Eingeweihten. Am Beispiel zweier Untersuchungen wird deutlich, wie es der richtige 'Methodenmix' ermöglicht, bei der Evaluation der Nutzungsqualität von Suchmaschinen ganz unterschiedlicher Art (a) diesen Interessenkonflikt bewusst zu machen, (b) Empathie für die Nöte der Kunden zu entwickeln und c) allgemeingültige Kriterien zur Entwicklung gebrauchstauglicher Suchmaschinen aufzustellen. Beide Untersuchungen fanden im Rahmen des Projekts Jorschung und Forschungsumgebung für Web Usability« unter Mitwirkung von Studierenden am Fachbereich Bibliothek und Information der FH Hamburg statt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  2. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.01
    0.012484305 = product of:
      0.04993722 = sum of:
        0.04993722 = weight(_text_:und in 3068) [ClassicSimilarity], result of:
          0.04993722 = score(doc=3068,freq=26.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.441457 = fieldWeight in 3068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3068)
      0.25 = coord(1/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  3. Lewandowski, D.; Sünkler, S.; Hanisch, F.: Anzeigenkennzeichnung auf Suchergebnisseiten : Empirische Ergebnisse und Implikationen für die Forschung (2019) 0.01
    0.012465083 = product of:
      0.049860332 = sum of:
        0.049860332 = weight(_text_:und in 5022) [ClassicSimilarity], result of:
          0.049860332 = score(doc=5022,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.4407773 = fieldWeight in 5022, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5022)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Aufsatz stellen wir eine repräsentative Multimethodenstudie (bestehend aus Umfrage, aufgabenbasierter Nutzerstudie und OnlineExperiment) zum Wissen und Verhalten der deutschen Internetnutzer bezüglich der Anzeigen auf Google-Suchergebnisseiten vor. Die Ergebnisse zeigen, dass die überwiegende Mehrzahl der Nutzenden nicht hinreichend in der Lage ist, Werbung von organischen Ergebnissen zu unterscheiden. Die aufgabenbasierte Studie zeigt, dass lediglich 1,3 Prozent der Teilnehmenden alle Anzeigen und organischen Ergebnisse richtig markieren konnten. 9,6 Prozent haben ausschließlich korrekte Markierungen vorgenommen, dabei aber keine Vollständigkeit erreicht. Aus den Ergebnissen der Umfrage geht hervor, dass es viele Unklarheiten gibt über das Geschäftsmodell von Google und die Art und Weise, wie Suchmaschinenwerbung funktioniert. Die Ergebnisse des Online-Experiments zeigen, dass Nutzende, die die Unterscheidung zwischen Anzeigen und organischen Ergebnissen nicht verstehen, etwa doppelt so häufig auf Anzeigen klicken wie diejenigen, die diese Unterscheidung verstehen. Implikationen für die Forschung ergeben sich in den Bereichen Wiederholungsstudien bzw. Monitoring der Anzeigendarstellung, vertiefende Laborstudien, Modelle des Informationsverhaltens, Informationskompetenz und Entwicklung fairer Suchmaschinen.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.3-14
  4. Lewandowski, D.; Krewinkel, A.; Gleissner, M.; Osterode, D.; Tolg, B.; Holle, M.; Sünkler, S.: Entwicklung und Anwendung einer Software zur automatisierten Kontrolle des Lebensmittelmarktes im Internet mit informationswissenschaftlichen Methoden (2019) 0.01
    0.012465083 = product of:
      0.049860332 = sum of:
        0.049860332 = weight(_text_:und in 5025) [ClassicSimilarity], result of:
          0.049860332 = score(doc=5025,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.4407773 = fieldWeight in 5025, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=5025)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Artikel präsentieren wir die Durchführung und die Ergebnisse eines interdisziplinären Forschungsprojekts zum Thema automatisierte Lebensmittelkontrolle im Web. Es wurden Kompetenzen aus den Disziplinen Lebensmittelwissenschaft, Rechtswissenschaft, Informationswissenschaft und Informatik dazu genutzt, ein detailliertes Konzept und einen Software-Prototypen zu entwickeln, um das Internet nach Produktangeboten zu durchsuchen, die gegen das Lebensmittelrecht verstoßen. Dabei wird deutlich, wie ein solcher Anwendungsfall von den Methoden der Information-Retrieval-Evaluierung profitiert, und wie sich mit relativ geringem Aufwand eine flexible Software programmieren lässt, die auch für eine Vielzahl anderer Fragestellungen einsetzbar ist. Die Ergebnisse des Projekts zeigen, wie komplexe Arbeitsprozesse einer Behörde mit Hilfe der Methoden von Retrieval-Tests und gängigen Verfahren aus dem maschinellen Lernen effektiv und effizient unterstützt werden können.
    Field
    Lebensmittel und Ernährung
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.33-45
  5. Petras, V.; Bank, M.: Vergleich der Suchmaschinen AltaVista und HotBot bezüglich Treffermengen und Aktualität (1998) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 2514) [ClassicSimilarity], result of:
          0.0495516 = score(doc=2514,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 2514, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2514)
      0.25 = coord(1/4)
    
    Abstract
    Im April 1988 veröffentlichten Giles und Lawrence einen Artikel in Science über die Abdeckung des WWW durch die wichtigsten Suchmaschinen. Darin kamen sie zu dem Ergebnis, daß HotBot mit 34% mehr Webseiten abdeckt als AltaVista mit 28%. Dies deckt sich weder mit den Größenangaben der Suchmaschinen selbst noch mit den bisherigen Erfahrungen der Autoren. Ziel der vorliegenden Untersuchung ist es, die Treffermengen der beiden System in Bezug auf ausgewählte Suchfragen und ihr Verhalten bei zeitlicher einschränkung der Recherche zu vergleichen
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.8, S.453-458
  6. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (III) : Informationslinguistik und -statistik: AltaVista, FAST und Northern Light (2001) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 5578) [ClassicSimilarity], result of:
          0.0495516 = score(doc=5578,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 5578, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5578)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen im World Wide Web arbeiten automatisch: Sie spüren Dokumente auf, indexieren sie, halten die Datenbank (mehr oder minder) aktuell und bieten den Kunden Retrievaloberflächen an. In unserem Known-Item-Retrievaltest (Password 11/2000) schnitten - in dieser Reihenfolge - Google, Alta Vista, Northern Light und FAST (All the Web) am besten ab. Die letzten drei Systeme arbeiten mit einer Kombination aus informationslinguistischen und informationsstatistischen Algorithmen, weshalb wir sie hier gemeinsam besprechen wollen. Im Zentrum unserer informationswissenschaftlichen Analysen stehen die "Highlights" der jeweiligen Suchwerkzeuge
  7. Lewandowski, D.: "Find what I mean not what I say" : Neuere Ansätze zur Qualifizierung von Suchmaschinen-Ergebnissen (2001) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 5932) [ClassicSimilarity], result of:
          0.0495516 = score(doc=5932,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 5932, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5932)
      0.25 = coord(1/4)
    
    Abstract
    Seit dem es das Web gibt, seit dem gibt es Suchmaschinen und ebenso Klagen über quantitativ und qualitativ unzureichende Suchergebnisse, schlechte Rankingverfahren und so weiter. Auch die Entwicklung von Meta-Suchmaschinen hat daran nicht viel geändert. Und alle Ansätze, die darauf setzten, dass die Seitenersteller oder die Nutzer selbst sich im Umgang mit dem Web qualifizieren, sind bislang gescheitert. Dennoch gibt es neue und Erfolg versprechende Verbesserungen, die sich die Suchenden zunutze machen können
  8. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.0495516 = score(doc=261,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=261)
      0.25 = coord(1/4)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  9. Karzauninkat, S.: ¬Die Suchmaschinenlandschaft 2003 : Wirtschaftliche und technische Entwicklungen (2004) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 1992) [ClassicSimilarity], result of:
          0.0495516 = score(doc=1992,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 1992, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1992)
      0.25 = coord(1/4)
    
    Abstract
    Die gesamte Suchmaschinenszene wurde im Frühjahr 2003 komplett umgekrempelt. Spektakuläre Aufkäufe bestimmten das Geschehen und verdeutlichten einen dramatischen Konzentrationsprozess. Die internationale Pluralität der Suchmaschinen wurde abgelöst durch eine Handvoll amerikanischer Netzwerke, die sich gegenseitig Technologielieferanten und Kooperationspartner vor der Nase wegkaufen und den Kampf um die Marktanteile sowohl in USA als auch hierzulande aufgenommen haben.
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp
  10. Seehaus, S.: Können Suchmaschinen von Sozialer Software profitieren? (2008) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 2306) [ClassicSimilarity], result of:
          0.0495516 = score(doc=2306,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 2306, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2306)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen eines Projekts gingen Stu­dierende an der HAW Hamburg für ihre Auftraggeber Lycos Europe und T-Online der Frage nach, wie sich Inhalte aus sozialen Suchdiensten in die algorithmische Suche einbinden lassen. Dazu analysierten und verglichen sie die Vor- und Nachteile der Systeme, die Relevanz der Sucher­gebnisse, die Benutzerfreundlichkeit sowie die Qualität der Inhalte. Für soziale Software ergaben sich daraus bedeutende Verbesserungspotentiale. Der Text beschreibt die Ergebnisse und die Empfehlungen für Lycos IQ.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.5, S.293-296
  11. Quirmbach, S.: Usability und user experience in Suchmaschinen (2011) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 350) [ClassicSimilarity], result of:
          0.0495516 = score(doc=350,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 350, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=350)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Artikel befasst sich mit der Usability und User Experience in Suchmaschinen. Dabei fließt eine detaillierte Betrachtung der Nutzer, des Suchprozesses und der Suchkomponenten mit ein. Er gibt sowohl eine Einführung in die Methoden zur Messung und Optimierung der Usability als auch wie diese mit Hilfe von Metriken gemessen und gezielt optimiert werden kann. Dies erfolgt durch eine Vorstellung der Usability-Methoden mit Anwendungsbeispielen als Hilfestellung im Rahmen der Produktentwicklung einer Suche.
  12. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 1484) [ClassicSimilarity], result of:
          0.0495516 = score(doc=1484,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 1484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1484)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
  13. Behnert, C.: Kriterien und Einflussfaktoren bei der Relevanzbewertung von Surrogaten in akademischen Informationssystemen (2019) 0.01
    0.0123879 = product of:
      0.0495516 = sum of:
        0.0495516 = weight(_text_:und in 5024) [ClassicSimilarity], result of:
          0.0495516 = score(doc=5024,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.438048 = fieldWeight in 5024, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5024)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag wird ein Nutzermodell für Relevanzbewertungen in akademischen Informationssystemen unter Berücksichtigung von Popularitätsdaten vorgestellt. Das Modell stellt erstmals eine systematische Darstellung der Einflussgrößen von Relevanzbewertungen vor und nimmt eine explizite Unterscheidung zwischen Relevanzmerkmalen, Relevanzkriterien und Relevanzfaktoren vor. Der Fokus liegt auf Suchergebnissen, die neben den üblichen Elementen wie Titel und Beschreibung auch Popularitätsdaten enthalten, wie zum Beispiel Zitations- oder Downloadzahlen zu einem Werk.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.24-32
  14. Körber, S.: Suchmuster erfahrener und unerfahrener Suchmaschinennutzer im deutschsprachigen World Wide Web (2000) 0.01
    0.01207423 = product of:
      0.04829692 = sum of:
        0.04829692 = weight(_text_:und in 5938) [ClassicSimilarity], result of:
          0.04829692 = score(doc=5938,freq=38.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42695636 = fieldWeight in 5938, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5938)
      0.25 = coord(1/4)
    
    Abstract
    In einem Labor-Experiment wurden insgesamt achtzehn Studenten und Studentinnen mit zwei offenen Web-Rechercheaufgaben konfrontiert. Während deren Bewältigung mit einer Suchmaschine wurden sie per Proxy-Logfile-Protokollierung verdeckt beobachtet. Sie machten demographische und ihre Webnutzungs-Gewohnheiten betreffende Angaben, bewerteten Aufgaben-, Performance- und Suchmaschinen-Eigenschaften in Fragebögen und stellten sich einem Multiple-Choice-Test zu ihrem Wissen über Suchmaschinen. Die Versuchspersonen wurden gezielt angeworben und eingeteilt: in eine erfahrene und eine unerfahrene Untergruppe mit je neun Teilnehmern. Die Untersuchung beruht auf dem Vergleich der beiden Gruppen: Im Zentrum stehen dabei die Lesezeichen, die sie als Lösungen ablegten, ihre Einschätzungen aus den Fragebögen, ihre Suchphrasen sowie die Muster ihrer Suchmaschinen-Interaktion und Navigation in Zielseiten. Diese aus den Logfiles gewonnen sequentiellen Aktionsmuster wurden vergleichend visualisiert, ausgezählt und interpretiert. Zunächst wird das World Wide Web als strukturell und inhaltlich komplexer Informationsraum beschrieben. Daraufhin beleuchtet der Autor die allgemeinen Aufgaben und Typen von Meta-Medienanwendungen, sowie die Komponenten Index-basierter Suchmaschinen. Im Anschluß daran wechselt die Perspektive von der strukturell-medialen Seite hin zu Nutzungsaspekten. Der Autor beschreibt Nutzung von Meta-Medienanwendungen als Ko-Selektion zwischen Nutzer und Suchmaschine auf der Basis von Entscheidungen und entwickelt ein einfaches, dynamisches Phasenmodell. Der Einfluß unterschiedlicher Wissensarten auf den Selektionsprozeß findet hier Beachtung.Darauf aufbauend werden im folgenden Schritt allgemeine Forschungsfragen und Hypothesen für das Experiment formuliert. Dessen Eigenschaften sind das anschließende Thema, wobei das Beobachtungsinstrument Logfile-Analyse, die Wahl des Suchdienstes, die Formulierung der Aufgaben, Ausarbeitung der Fragebögen und der Ablauf im Zentrum stehen. Im folgenden präsentiert der Autor die Ergebnisse in drei Schwerpunkten: erstens in bezug auf die Performance - was die Prüfung der Hypothesen erlaubt - zweitens in bezug auf die Bewertungen, Kommentare und Suchphrasen der Versuchspersonen und drittens in bezug auf die visuelle und rechnerische Auswertung der Suchmuster. Letztere erlauben einen Einblick in das Suchverhalten der Versuchspersonen. Zusammenfassende Interpretationen und ein Ausblick schließen die Arbeit ab
  15. cw: Relaunch von Yahoo! (2003) 0.01
    0.01207423 = product of:
      0.04829692 = sum of:
        0.04829692 = weight(_text_:und in 1231) [ClassicSimilarity], result of:
          0.04829692 = score(doc=1231,freq=38.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42695636 = fieldWeight in 1231, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1231)
      0.25 = coord(1/4)
    
    Abstract
    Durch die Neustrukturierung der Homepage und die erweiterten Mail-Funktionalitäten soll die Online-Zeit bei yahoo.de noch effizienter und unterhaltsamer werden.
    Content
    "Mit der Umsetzung neuer Funktionalitäten und einer Überarbeitung des Erscheinungsbildes der Homepage wurden die Anregungen der Yahoo!-Nutzer aufgenommen und erstmals seit 1997 in ein neues Design umgesetzt. Dieser Relaunch bezieht sich neben dem Aufbau und der Gestaltung der Homepage auch auf die Mail-Funktionen und den Bereich Marktplatz. Neben der grafischen Überarbeitung der Homepage und der vermehrten Verwendung von Grafiken standen insbesondere die Umsetzung einer nutzerfreundlichen Navigation im Vordergrund. Aufgrund von Nutzerbefragungen und den neuesten Usability-Erkenntnissen wurden die wichtigsten Features optimiert und verstärkt personalisiert. Links und Navigationspunkte sind schneller auffindbar und können anhand ihrer permanenten Position auch leichter erinnert werden. Die. Schriftgröße wurde vergrößert und das Platzangebot unter "Yahoo! Services" verdoppelt. Neu ist die Möglichkeit, sich über die Anmeldung den aktuellen Status des persönlichen Assistenten anzeigen zu lassen. In einem einheitlichen Design erhalten Nutzer auf der Homepage sofort Zugang zu den Funktionen: Mail, Adressbuch, Kalender und Notizblock. Sobald sich der Nutzer angemeldet hat, erfolgt die persönliche Ansprache über den eingetragenen Nutzernamen. Hier wird auch der Status des Maileingangs angezeigt. Gut sichtbare Ordner erleichtern die schnelle Orientierung. In der Kombination aus Mail und Kalender können, über den parallelen Versand von Terminvorschlägen an mehrere Personen, Meetings geplant und koordiniert werden. Der Abgleich mit Palm oder Outlook ist problemlos möglich. Dem "weltweit" mobilen Büro steht demnach nichts mehr im Wege. Das Webseiten Verzeichnis mit seinen klaren Kategorisierungs- und Suchfunktionlitäten bleibt allen Usem als umfassendstes Online-Webverzeichnis im Internet erhalten. Dieses wird seit über acht Jahren durch die weltweit tätigen Redakteure permanent ergänzt und aktualisiert. Zudem wurde der Marktplatz mit Aktuelle Nachrichten und Unterhaltung zu einem Bereich zusammengefasst, in dem Nutzer neben den Informationen zu den neusten Angeboten auch die entsprechenden News aus Politik und Unterhaltung erhalten."
  16. Geisel, J.: Schatzsuche im Chaos (1996) 0.01
    0.011994532 = product of:
      0.04797813 = sum of:
        0.04797813 = weight(_text_:und in 4821) [ClassicSimilarity], result of:
          0.04797813 = score(doc=4821,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42413816 = fieldWeight in 4821, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=4821)
      0.25 = coord(1/4)
    
    Abstract
    Schön ist es ja, das Internet. Mit seinem internationalen Informationsangebot in Hülle und Fülle. Und dann die Möglichkeiten, mit den Nachbarn im globalen Dorf über Gott und die Welt zu chatten. Wenn nur das Durcheinander nicht wäre. Aber jetzt helfen Suchdienste
  17. Faller, H.: David gegen Google : Wie ein Mathematiker aus New Jersey die größte Suchmaschine der Welt übertrumpfen will: Eine Reise ins Reich der Algorithmen (2004) 0.01
    0.011994532 = product of:
      0.04797813 = sum of:
        0.04797813 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.04797813 = score(doc=2870,freq=24.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42413816 = fieldWeight in 2870, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2870)
      0.25 = coord(1/4)
    
    Abstract
    Apostolos Gerasoulis ist Mathematiker und eigentlich mit Problemen beschäftigt, auf deren Lösung die Welt noch warten kann. Doch neuerdings befällt ihn manchmal, abends, wenn er mit seiner Frau vor dem Fernseher sitzt, eine kleine Unruhe. Dann entschuldigt er sich für ein paar Minuten. Aber seine Frau weiß, dass es länger dauern wird, wenn er sich so spät in sein Wohnzimmer verzieht, wenn er im Schein seines Dell-Inspiron-Laptops sitzt, weil er dann nachsieht, was der Welt an diesem Tag durch den Kopf gegangen ist. Apostolos Gerasoulis ist der Erfinder der viertgrößten amerikanischen Internet-Suchmaschine Ask Jeeves. Zehn Millionen Suchbegriffe werden jeden Tag dort eingegeben, das sind zehn Millionen Fragen und Wünsche, nach Nachrichten und Produkten, nach Diagnosen und Namen und natürlich nach nackten Frauen und Pornos und Strippern und Orgien und Pam-Anderson-Videos. Und auch nach dem Sinn des Lebens wird gefragt, nach Gott und dem Teufel, die aber beide sehr weit hinter Britney Spears zurückliegen, die sich als einzige Weltberühmtheit seit Jahren ganz oben hält und von deren Namen Apostolos Hunderte Schreibweisen gesehen hat. . . . Mitte Juli war es so weit. Barry Diller hat Ask Jeeves für 2,3 Milliarden Dollar gekauft. Apostolos Gerasoulis lächelt noch etwas glücklicher als sonst, als er erzählt, dass Diller versprochen hat, ihn demnächst in New York City auf eine große Party mitzunehmen.
  18. Lewandowski, D.: Neue Suchmaschinen, neue Datenbestände, Desktop-Suche, Shortcuts (2005) 0.01
    0.011994532 = product of:
      0.04797813 = sum of:
        0.04797813 = weight(_text_:und in 3432) [ClassicSimilarity], result of:
          0.04797813 = score(doc=3432,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42413816 = fieldWeight in 3432, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3432)
      0.25 = coord(1/4)
    
    Abstract
    Das Jahr 2004 brachte eigene Suchmaschinen der zwei großen Portalanbieter Yahoo und Microsoft Network, neue und spezialisierte Datenbestände wie Google Scholar sowie die ersten Desktop-Suchtools der Web-Suchmaschinen. Die Entwicklungen im November und Dezember des Jahres weisen weiter in diese Richtung.
  19. Speck, H.; Thiele, F.P.: Goggle, Gossip & PR-ostitution : Das Geschäft einer Suchmaschine (2005) 0.01
    0.011994532 = product of:
      0.04797813 = sum of:
        0.04797813 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.04797813 = score(doc=3508,freq=24.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42413816 = fieldWeight in 3508, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3508)
      0.25 = coord(1/4)
    
    Abstract
    Jean Baudrillard, der französische Philosoph und Hyperrealist, beschreibt in »Disney World Company« eine Welt, die sich durch die Globalisierung, Vernetzung, und Synchronisierung von Informationen auszeichnet. Der schnelle, uneingeschränkte Zugriff auf neueste Informationen wird darin immer wichtiger und zwanghafter. Einzig automatisierte Suchmaschinen scheinen in der Lage, dieser ständig anwachsenden Informationsflut Paroli zu bieten und das schnelle Auffinden von Informationen zu gewährleisten. Ein Drittel der Bevölkerung sucht täglich auf diesem Wege nach gewünschten Resultaten. Der Marktführer Google verzeichnet täglich über 200 Millionen Suchanfragen. Der Verlust der editorialen Filter- und Kontrollebene wird jedoch von der Mehrheit noch nicht wahrgenommen - die medienpolitische Einordnung von Suchmaschinen findet kaum statt. Sie werden als unfehlbare, allwissende Götter angesehen. Der relativ junge Suchmaschinenmarkt hat sich in den letzten Jahren stark gewandelt: In seiner Sturm- und Drangphase noch durch eine Vielzahl kleinerer Suchmaschinen gekennzeichnet, wird der Markt momentan von Google, Microsoft und Yahoo! klar dominiert. Diese Monopolstellung und damit zwangsläufig verbundene Machtpositionen beeinflussen unseren heutigen Zugang zu Wissen. Wenige Suchmaschinenbetreiber entscheiden dabei über die Auswahl, Reihenfolge und Bewertung von Informationen, ohne dass die zu Grunde liegenden Maßstäbe transparent gemacht werden. Verschärfend kommt hinzu, dass das Ranking gerade im kommerziellen Bereich erhebliche finanzielle Konsequenzen haben kann, die kommerzielle Anbieter zu massiven »Lobby«- und Manipulationstätigkeiten, so genanntem Search-Engine-Marketing motivieren. Diese Search-Engine-Optimierungen (SEO) sind verstärkt im Vermittler- und Resellerbereich zu verzeichnen, dem so genannten Affiliate Business, wo solche Manipulationen kombiniert mit der Allmacht der Suchmaschinen über die von ihnen indizierten Dokumente, die wesentlichen Probleme und Schwachstellen heutiger Suchmaschinen charakterisieren.
  20. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.01
    0.011994532 = product of:
      0.04797813 = sum of:
        0.04797813 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.04797813 = score(doc=1159,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.42413816 = fieldWeight in 1159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1159)
      0.25 = coord(1/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications