Search (501 results, page 4 of 26)

  • × theme_ss:"Suchmaschinen"
  1. Bundenthal, A.: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF (2007) 0.01
    0.011954557 = product of:
      0.04781823 = sum of:
        0.04781823 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.04781823 = score(doc=1368,freq=34.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.40413946 = fieldWeight in 1368, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1368)
      0.25 = coord(1/4)
    
    Abstract
    Ein Gespenst geht um in Europa, das Schreckgespenst der Dominanz einer profitorientierten Suchmaschine aus den USA, die das Wissen im alten Europa bedroht - Google. >Google, Word, Kleenex<: Diese Produktnamen stehen heute in einer Reihe, ein Produkt wurde zum Gattungsbegriff. Das Verb >googeln< wurde in den Duden aufgenommen und damit >geadelt<. Aber obwohl Google >Don't be evil< als inoffizielles Firmenmotto führt, schwingt das Medienecho zwischen Vergötterung und Verteufelung. Google werden die weitgehende Monopolstellung, Beeinflussung der Rechercheergebnisse, das Horten von vertraulichen Benutzerdaten, Anglozentrismus und Zensur vorgeworfen. Welche Bedeutung haben Internet, World Wide Web, Browser und Suchmaschinen heute für die Recherche der Journalisten und der Dokumentationsbereiche im ZDF? Als ein Kollege im Jahr 1992 aus den USA zurück in das ZDF-Sendezentrum nach Mainz kam, berichtete er von den dortigen Erfahrungen mit dem Internet und versuchte uns zu überzeugen, dass dieses Netz und die damit verbundenen Methoden die Informationswelt umkrempeln würden - er überzeugte uns, nicht aber bezüglich des Zeitrahmens. Wir unterlagen dem Irrtum, es werde noch einige Jahre dauern. Widergespiegelt findet sich der raketengleiche Aufschwung des Internets zum Beispiel in der ZDF-Agenturdatenbank: In den ersten 1990er-Jahren liegt nahezu kein Eintrag >Internet< vor, jedoch ab 1995 schoss die Zahl der Einträge rasant in die Höhe und erreichte mit der New-Economy-Euphorie im Jahr woo einen ersten Höhepunkt mit knapp 14.000 Nennungen. Das ZDF hat die publizistischen Möglichkeiten schnell erkannt und baute ab 1996 zügig eigene Online-Angebote auf - bereits zuvor nutzten die Journalisten und die Dokumentare das Internet für ihre Arbeit. Waren es zunächst nur einige wenige Neugierige, so sprach sich bald die Leistungsfähigkeit des Internets herum, auch wenn es zunächst noch mühsam in der Handhabung war. Wer sich dort zurecht fand, hatte einen Wissensvorsprung, konnte weltweit an jedem Platz Informationen einholen und aktueller arbeiten. Mit einer parallel ablaufenden Verjüngung des redaktionellen Mitarbeiterstabs in den Rundfunkhäusern verbreitete sich auch zunehmend das Wissen, wie erfolgreich im Internet recherchiert werden kann. Die jüngeren Journalisten kennen die Werkzeuge und interessante Websites bereits von der Universität, und heute benutzen alle recherchierenden Journalisten und Archivare im ZDF für die Vorbereitung der Berichterstattung und für die Themensuche in nahezu jedem Fall auch das Internet - und mit der Maus wird dabei meist für Google abgestimmt, während früher AltaVista, Lycos oder Yahoo! bevorzugt wurden. Wie in einer Studie nett formuliert wurde: »Without much exaggeration one could say that to exist is to be indexed by a search engine«.
  2. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.011910526 = product of:
      0.047642104 = sum of:
        0.047642104 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.047642104 = score(doc=3133,freq=60.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.40265095 = fieldWeight in 3133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3133)
      0.25 = coord(1/4)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  3. Niemann, J.: "Ich cuil das mal" : Neue Suchmaschine fordert Google heraus (2008) 0.01
    0.011625904 = product of:
      0.046503615 = sum of:
        0.046503615 = weight(_text_:und in 3049) [ClassicSimilarity], result of:
          0.046503615 = score(doc=3049,freq=42.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39302891 = fieldWeight in 3049, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3049)
      0.25 = coord(1/4)
    
    Abstract
    Die neue Suchmaschine "Cuil" ist mit ehrgeizigen Zielen und großen Worten online gegangen. Dass sie keine Nutzerdaten sammelt, macht sie attraktiv - ihre deutschen Suchergebnisse weniger.
    Content
    "Daran, dass der Suchmaschinen-Gigant Google immer und in allem der Größte und Beste sein muss, haben sich Internet-Nutzer aus aller Welt längst gewöhnt. Und als das Unternehmen am Wochenende in seinem offiziellen Blog damit angab, nun den Meilenstein von eine Billion gefundener eigenständiger URLs erreicht zu haben, war das eigentlich kaum noch ein Grund aufzuhorchen. Zumal bisher der Google-Index auf 30 bis 50 Milliarden geschätzt wurde und unklar ist, ob die angeblichen Billionen Links auch indexiert sind und nicht zu großen Teilen auch zu den selben Seiten führen. Wenn nun aber plötzlich eine andere, völlig neue Suchmaschine namens "Cuil" - gesprochen "Cool"- am Start ist und behauptet, 121 Milliarden Seiten zu durchsuchen und dabei überhaupt keine Nutzerdaten speichert, ist das hingegen schon ein Anlass zum Aufhorchen. Schließlich ist man angesichts der "Daten-Kraken"-Meldungen über Google und seine Speichermethoden dankbar für jede Alternative. Gegründet wurde Cuil im Jahre 2006 von dem Ehepaar Tom Costello, ein früherer IBM-Manager und Stanford-Professor und Anna Patterson, ehemalige Google-Mitarbeiterin, in Menlo Park in Kalifornien mit einem Startkapital von 33 Millionen Dollar und startete am Wochenende offiziell den Suchbetrieb. Der ist allerdings noch stark verbesserungsfähig. Während Cuil zu dem Begriff "Schwangerschaft" angeblich 6.768.056 Treffer aufweisen kann, die allerdings in ihrer Priorisierung von Medikamenten, Blogs und Büchern eher unbrauchbar sind, stehen dem englischsprachigen User unter dem Begriff Pregnancy immerhin 241.127.157 auf den ersten Blick sehr präzise Treffer zur Verfügung. Da erscheint die Aussage Costellos, man wolle "Suchenden content-basierte Ergebnisse präsentieren und nicht nur populäre" weniger absurd. Google hat beim selben deutschen Suchbegriff über acht Millionen Treffer, zu Pregnancy über 111 Millionen. Im englischen steht Cuil Google also nicht nach, während es im deutschsprachigen Bereich allerdings auch bei Namen, Orten und Wikipedia-Einträgen noch recht bescheiden aussieht.
    Viel interessanter als die imposante Zahl von 121 Milliarden, die für Sucher im Netz im Zweifelsfall viel Irrelevantes bedeutet, ist die von Google abweichende Suchergebnis-Anordnung in Spalten und zumindest der Wille, die Treffer thematisch zu ordnen und mit Bildern und beschreibendem Kontext zu versehen. Auch die Tatsache, dass laut Datenschutzrichtlinien die IP-Adressen nicht gespeichert werden und die in Cookies dokumentierten Daten über das Surfverhalten der Nutzer auch nicht, könnte potenzielle Nutzer eher locken als schiere Link-Masse. Denn Cuil ist bei weitem nicht das erste Konkurrenzprodukt von Google, erst kürzlich startete Wikipedia-Gründer Jimmy Wales das bisher ziemlich erfolglose "Wikia". Während Google in den USA laut New York Times 61,5 der Suchanfragen verbucht, hat Yahoo dort immerhin 20,9 Prozent und Microsofts Live Search 9,2 Prozent - also wäre es für Cuil schon mal ein Anfang, Microsoft Konkurrenz zu machen. Derzeit ist die neue Suchmaschine dem großen Anfrage-Ansturm allerdings nicht gewachsen und deshalb häufig nicht erreichbar."
  4. Fichtner, M.: Im Land der Raketenwürmer (1997) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 6530) [ClassicSimilarity], result of:
          0.046390492 = score(doc=6530,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 6530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6530)
      0.25 = coord(1/4)
    
    Abstract
    Sie rasen wie gestört durchs Netz, klicken aus alles, was sich bewegt, merken sich jeden noch so unwichtigen Blödsinn - und sind damit zum wichtigsten und zugleich umstrittensten Stückchen Software im Internet geworden: die sog. Crawlers, Robots, Spiders, Worms und Ants
    Content
    Beitrag zu den verschiedenen search engines des Internet mit Erläuterung der 'META-Tags' im HEAD-Bereich von HTML-Dokumenten: <META name="description" content="..."> ("..." nicht länger als 200 Zeichen) und <META name="keywords" content="..."> ("..." als Komma separierte Stichwortliste, die nicht länger als 1000 Zeichen sein soll)
  5. Schneller finden! (1999) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 3929) [ClassicSimilarity], result of:
          0.046390492 = score(doc=3929,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 3929, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3929)
      0.25 = coord(1/4)
    
    Abstract
    Erstmals im Langzeittest: die deutschen Webkataloge und Suchmaschinen! Drei Monate lang haben wir geprüft, wie hilfreich die Arbeit dieser Web-Pfadfinder wirklich ist. Und wie man noch schneller und besser ans Ziel gelangt
    Content
    Bearbeitet wurden folgende 3 Fragen: (1) Proxemik; (2) Oliver Kahn; (3) Apartment UND (Rügen ODER Usedom) NICHT Binz
  6. Karzauninkat, S.: Inflation der Metasucher (1999) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
          0.046390492 = score(doc=5134,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 5134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=5134)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung verschiedener deutscher und internationaler Meta-Suchmaschinen
  7. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 6496) [ClassicSimilarity], result of:
          0.046390492 = score(doc=6496,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 6496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6496)
      0.25 = coord(1/4)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
  8. Lewandowski, D.: Aktualität als erfolgskritischer Faktor bei Suchmaschinen (2006) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 2816) [ClassicSimilarity], result of:
          0.046390492 = score(doc=2816,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 2816, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2816)
      0.25 = coord(1/4)
    
    Abstract
    Aktualitätsfaktoren spielen bei Suchmaschinen auf unterschiedlichen Ebenen eine Rolle: Einerseits geht es um die Aktualität der Datenbestände (Index-Aktualität), andererseits um Aktualitätsfaktoren in der Recherche, und schließlich um Aktualitätsfaktoren im Banking. Zu allen drei Bereichen werden die wesentlichen Arbeiten diskutiert. Der Artikel gibt damit einen Überblick über die Vielschichtigkeit des Aktualitätsthemas und zeigt, dass Aktualität für Suchmaschinen ein erfolgskritischer Faktor ist und in Zukunft noch in verstärktem Maß werden dürfte.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.3, S.141-148
  9. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 3097) [ClassicSimilarity], result of:
          0.046390492 = score(doc=3097,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 3097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3097)
      0.25 = coord(1/4)
    
    Abstract
    Das Programm stand unter dem Motto "Die Internet Wirtschaft - Geld verdienen im Internet". Den etwa 50 live Teilnehmenden berichteten Experten aus der Internet-Wirtschaft über ihre Geschäftsmodelle sowie die Erfolgsfaktoren. Am Nachmittag ging es unter dem Überbegriff "Netzpolitik" um aktuelle Diskussionen mit wirtschaftspolitischem Hintergrund und in den beiden Podiumssitzungen teils ungewohnt hitzig und persönlich "giftig" aber sehr aktuell um "Anonymität im Netz, ein Bürgerrecht?" und um die netzpolitischen Koalitionsverhandlungen in Berlin.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.329-330
  10. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 4275) [ClassicSimilarity], result of:
          0.046390492 = score(doc=4275,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 4275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4275)
      0.25 = coord(1/4)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  11. Rath, M.: ¬Das Recht der Internet-Suchmaschinen (2005) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 5005) [ClassicSimilarity], result of:
          0.046390492 = score(doc=5005,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 5005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=5005)
      0.25 = coord(1/4)
    
    Series
    Recht und neue Medien; 9
  12. Google findet Office-Dateien (2001) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 5530) [ClassicSimilarity], result of:
          0.046390492 = score(doc=5530,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 5530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5530)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google nimmt sich nun auch Office-Dokumente vor: Auf Anweisung in den erweiterten Einstellungen erkennt sie Microsoft Word, Powerpoint und Excel-Dateien sowie Texte in RTF und Postscript. Google kann die Fundstücke in das HTML-Format übersetzen und im Web-Browser anzeigen. Das erspart die Installation der Anwendungen und schützt vor Macro-Viren. Allerdings bereiten die Umlaute noch Probleme
  13. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.01
    0.011597623 = product of:
      0.046390492 = sum of:
        0.046390492 = weight(_text_:und in 2770) [ClassicSimilarity], result of:
          0.046390492 = score(doc=2770,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.39207286 = fieldWeight in 2770, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2770)
      0.25 = coord(1/4)
    
    Abstract
    Nach einer kurzen Darstellung der Entwicklung der Suchdienste wird das Suchretrieval von AltaVista näher beschrieben. Es werden Kriterien für die Beurteilung der Suchdienste festgelegt. Danach folgt die Beschreibung der Möglichkeiten der einzelnen Suchdienste und ihre Beurteilung. Zum Schluß wird über die Auswahl eines Suchdienstes diskutiert.
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  14. Fauldrath, J.; Kunisch, A.: Kooperative Evaluation der Usability von Suchmaschineninterfaces (2005) 0.01
    0.011506661 = product of:
      0.046026643 = sum of:
        0.046026643 = weight(_text_:und in 4186) [ClassicSimilarity], result of:
          0.046026643 = score(doc=4186,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38899773 = fieldWeight in 4186, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4186)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen einer Projektarbeit des Fachbereichs Informations- und Wissensmanagement (IuW) der Fachhochschule Darmstadt mit T-Online International AG (Weiterstadt) wurde eine Untersuchung der Funktionalitäten von Suchmaschinen, Portalen und Metasuchmaschinen durchgeführt. Ziel war es zu ermitteln, inwieweit Standards für das Produkt Suchdienstleistung im Web existieren und wie diese Funktionalitäten bereits heute in die Angebote integriert sind. Hierzu wurden in enger Zusammenarbeit ein Kriterienkatalog erarbeitet und anschließend die Produkte evaluiert. Besonders wichtig ist dabei, dass die Nutzer das Gefühl erhalten, ihre Distanz zur gesuchten Information durch das Angebot zu verringern. Hierbei ist jede Form von Vereinfachung und Hilfe gewünscht, um möglichst schnell, einfach und umfassend zum Ergebnis zu kommen. Das Suchangebot ist für die Suchmaschinenanbieter ein Wirtschaftsfaktor, aber auch für kommerzielle Anbieter ist es wichtig, mit einem möglichst hohen Ranking auf gut gestalteten Ergebnisseiten auffindbar zu sein. Deshalb ist das Thema Usability von Suchmaschineninterfaces brandaktuell.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.21-28
  15. Schamberger, J.: Webkataloge : eine alte, neue Alternative für Wirtschaft und Wissenschaft zur Informationsbeschaffung im WWW (2005) 0.01
    0.011506661 = product of:
      0.046026643 = sum of:
        0.046026643 = weight(_text_:und in 4982) [ClassicSimilarity], result of:
          0.046026643 = score(doc=4982,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38899773 = fieldWeight in 4982, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4982)
      0.25 = coord(1/4)
    
    Abstract
    Das Word Wide Web, oder breiter gefasst das Internet ist heute für viele Unternehmen und deren Mitarbeitern zu einer der wichtigsten und am meisten genutzten Informationsquellen geworden, um ihre täglichen Arbeitsaufgaben zu erfüllen. Dem gegenüber stehen Untersuchungen, diezeigen, dass in den wenigsten Fällen im Web das gefunden wird, was gesucht wird. Ursachen liegen u.a. in dervorwiegenden Benutzung von konsumentenorientierten Suchmaschinen wie Google. Die Folgen dieser mangelhaften Suchergebnisse haben aber direkte betriebswirtschaftliche Auswirkungen im Bezug auf Arbeitszeit Wettbewerbsfähigkeit und Kosten für die Unternehmen. Eine mögliche Lösung aus diesem Informationschaos bieten spezialisierte Web- und Themenkataloge. Die Anforderungen an diese Verzeichnisse unterscheiden sich aber teilweise erheblich von den bekannten Webkatalogen wie Web.de oder Allesklar. Neben diesen alten, neuen Suchwerkzeugen wird für eine wirklich effiziente Nutzung des WWW auch bei der Qualifizierung und Weiterbildung der Mitarbeiter ein neuer Weg eingeschlagen werden müssen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.295-302
  16. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.01
    0.011506661 = product of:
      0.046026643 = sum of:
        0.046026643 = weight(_text_:und in 2705) [ClassicSimilarity], result of:
          0.046026643 = score(doc=2705,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38899773 = fieldWeight in 2705, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2705)
      0.25 = coord(1/4)
    
    Abstract
    Zeigt übersichtlich die Usability anhand des Suchprozesses und der Mensch-Maschine-Interaktion mit den entstehenden Problemen auf. Bewertet die Kritikalität der identifizierten Usability-Probleme und verdeutlicht deren Auswirkungen auf die User Experience der Suche. Die konsequente Optimierung der User Experience und der Usability einer Suchmaschine ist Basis einer erfolgreichen Entwicklung von Websites. Suchmaschinen werden nicht nur als Funktion innerhalb von Websites eingesetzt, sondern kommen auch in unterschiedlichen Ausprägungen innerhalb von Applikationen, Online-Shops oder Intranets von Unternehmen vor. Die Autorin beschreibt, welche Evaluationsmethoden eingesetzt werden, um eine Suchmaschine zu optimieren, wo typische Probleme auftreten und wie sich diese auf die User Experience auswirken. Best-Practice-Beispiele und Tipps helfen sowohl Einsteigern als auch Experten bei der Umsetzung einer übergreifenden User Experience-Strategie und geben Hilfestellung bei der wirtschaftlichen Betrachtung im Rahmen der Produktentwicklung.
  17. Lewandowski, D.: Suchmaschinen verstehen (2015) 0.01
    0.011506661 = product of:
      0.046026643 = sum of:
        0.046026643 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
          0.046026643 = score(doc=1338,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38899773 = fieldWeight in 1338, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1338)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch betrachtet das Thema Suchmaschinen ausgehend von der täglichen Recherche und führt in die technischen Grundlagen, in Recherchetechniken sowie die gesellschaftlichen und wirtschaftlichen Bedingungen der Recherche im Web ein. Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Nicht zuletzt wird auch die Seite der Recherche betrachtet und gezeigt, wie man mit den bekannten Suchmaschinen effizient recherchieren kann. Das Buch verhilft allen, die mit Suchmaschinen recherchieren oder sich beruflich mit der Optimierung, Aufbereitung und Sichtbarmachung von Inhalten beschäftigen, zu einem umfassenden Verständnis der Ansätze, Stärken und Schwächen verschiedener Suchmaschinen und der ihnen zugrunde liegenden Technologien.
  18. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.011460909 = product of:
      0.045843635 = sum of:
        0.045843635 = weight(_text_:und in 2777) [ClassicSimilarity], result of:
          0.045843635 = score(doc=2777,freq=20.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38745102 = fieldWeight in 2777, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2777)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  19. Lamprecht, S.: Professionelle Recherche im Internet (1999) 0.01
    0.011345721 = product of:
      0.045382883 = sum of:
        0.045382883 = weight(_text_:und in 4856) [ClassicSimilarity], result of:
          0.045382883 = score(doc=4856,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38355696 = fieldWeight in 4856, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4856)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Buch bietet einen sehr guten Überblick, wie man sich Informationen schnell und effizient verschaffen kann. Neben Suchmaschinen werden auch Mailing-Listen und Newsgroups (Diskussionforen) vorgestellt. Es wird anschaulich beschrieben, wie sie gegliedert sind und wie man daran teilnehmen kann. Rund die Hälfte des Buches beschäftigt sich mit Spezialrecherchen, wie etwa die Suche nach Software, Personen oder Jobs. Im Kapitel 'Quellen für Aus- und Fortbildung' findet man neben der 'Free Internet Encyclopdedia' und den 'Online Dictionaries' viele weitere nützliche Adressen. Obwohl sich das Buch primär an Profis richtet, ist es auch für Einsteiger geeignet. Die Recherchestrategien werden allgemein verständlich erklärt
  20. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches (2000) 0.01
    0.011345721 = product of:
      0.045382883 = sum of:
        0.045382883 = weight(_text_:und in 6772) [ClassicSimilarity], result of:
          0.045382883 = score(doc=6772,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.38355696 = fieldWeight in 6772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6772)
      0.25 = coord(1/4)
    
    Abstract
    Web Search Engines und Web Directories sind die technologische Speerspitze im High-Tech-Bereich Internet. Als Suchassistenten gestatten sie Laien und Profi-Searchern gleichsam einen optimalen Einstieg in die Vielfalt der Informationsquellen des World Wide Web, Sie ermöglichen durch eine Kombination aus hierarchisch geordnetem kontrollierten Vokabular, automatischer Indexierung sowie diverser Synonym-, Homonym- und Fachwörterbücher einen zielgenauen Zugriff auf WebSites. - Stop! Glauben Sie das? Wir waren skeptisch und haben Suchmaschinen und Suchverzeichnisse genau angeschaut. Durchgeführt wurde ein Retrievaltest, der unterschiedliche Suchsysteme mit jeweils dergleichen Anfrage konfrontierte, auf die wir bereits die Antwort wussten ("Known Item Search"). Skizziert werden zudem bisher ausgearbeitete empirische Erhebungen zur Evaluation von Web-Retrievalsystemen, angefangen von seriösen informationswissenschaftlichen Forschungen bis hinzu den Tests in Publikumszeitschriften

Years

Languages

  • d 464
  • e 38
  • More… Less…

Types

  • a 402
  • m 54
  • el 52
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications