Search (500 results, page 4 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.012786239 = product of:
      0.051144958 = sum of:
        0.051144958 = weight(_text_:und in 2133) [ClassicSimilarity], result of:
          0.051144958 = score(doc=2133,freq=60.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.40237278 = fieldWeight in 2133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=2133)
      0.25 = coord(1/4)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  2. Niemann, J.: "Ich cuil das mal" : Neue Suchmaschine fordert Google heraus (2008) 0.01
    0.012480691 = product of:
      0.049922764 = sum of:
        0.049922764 = weight(_text_:und in 2049) [ClassicSimilarity], result of:
          0.049922764 = score(doc=2049,freq=42.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39275742 = fieldWeight in 2049, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2049)
      0.25 = coord(1/4)
    
    Abstract
    Die neue Suchmaschine "Cuil" ist mit ehrgeizigen Zielen und großen Worten online gegangen. Dass sie keine Nutzerdaten sammelt, macht sie attraktiv - ihre deutschen Suchergebnisse weniger.
    Content
    "Daran, dass der Suchmaschinen-Gigant Google immer und in allem der Größte und Beste sein muss, haben sich Internet-Nutzer aus aller Welt längst gewöhnt. Und als das Unternehmen am Wochenende in seinem offiziellen Blog damit angab, nun den Meilenstein von eine Billion gefundener eigenständiger URLs erreicht zu haben, war das eigentlich kaum noch ein Grund aufzuhorchen. Zumal bisher der Google-Index auf 30 bis 50 Milliarden geschätzt wurde und unklar ist, ob die angeblichen Billionen Links auch indexiert sind und nicht zu großen Teilen auch zu den selben Seiten führen. Wenn nun aber plötzlich eine andere, völlig neue Suchmaschine namens "Cuil" - gesprochen "Cool"- am Start ist und behauptet, 121 Milliarden Seiten zu durchsuchen und dabei überhaupt keine Nutzerdaten speichert, ist das hingegen schon ein Anlass zum Aufhorchen. Schließlich ist man angesichts der "Daten-Kraken"-Meldungen über Google und seine Speichermethoden dankbar für jede Alternative. Gegründet wurde Cuil im Jahre 2006 von dem Ehepaar Tom Costello, ein früherer IBM-Manager und Stanford-Professor und Anna Patterson, ehemalige Google-Mitarbeiterin, in Menlo Park in Kalifornien mit einem Startkapital von 33 Millionen Dollar und startete am Wochenende offiziell den Suchbetrieb. Der ist allerdings noch stark verbesserungsfähig. Während Cuil zu dem Begriff "Schwangerschaft" angeblich 6.768.056 Treffer aufweisen kann, die allerdings in ihrer Priorisierung von Medikamenten, Blogs und Büchern eher unbrauchbar sind, stehen dem englischsprachigen User unter dem Begriff Pregnancy immerhin 241.127.157 auf den ersten Blick sehr präzise Treffer zur Verfügung. Da erscheint die Aussage Costellos, man wolle "Suchenden content-basierte Ergebnisse präsentieren und nicht nur populäre" weniger absurd. Google hat beim selben deutschen Suchbegriff über acht Millionen Treffer, zu Pregnancy über 111 Millionen. Im englischen steht Cuil Google also nicht nach, während es im deutschsprachigen Bereich allerdings auch bei Namen, Orten und Wikipedia-Einträgen noch recht bescheiden aussieht.
    Viel interessanter als die imposante Zahl von 121 Milliarden, die für Sucher im Netz im Zweifelsfall viel Irrelevantes bedeutet, ist die von Google abweichende Suchergebnis-Anordnung in Spalten und zumindest der Wille, die Treffer thematisch zu ordnen und mit Bildern und beschreibendem Kontext zu versehen. Auch die Tatsache, dass laut Datenschutzrichtlinien die IP-Adressen nicht gespeichert werden und die in Cookies dokumentierten Daten über das Surfverhalten der Nutzer auch nicht, könnte potenzielle Nutzer eher locken als schiere Link-Masse. Denn Cuil ist bei weitem nicht das erste Konkurrenzprodukt von Google, erst kürzlich startete Wikipedia-Gründer Jimmy Wales das bisher ziemlich erfolglose "Wikia". Während Google in den USA laut New York Times 61,5 der Suchanfragen verbucht, hat Yahoo dort immerhin 20,9 Prozent und Microsofts Live Search 9,2 Prozent - also wäre es für Cuil schon mal ein Anfang, Microsoft Konkurrenz zu machen. Derzeit ist die neue Suchmaschine dem großen Anfrage-Ansturm allerdings nicht gewachsen und deshalb häufig nicht erreichbar."
  3. Fichtner, M.: Im Land der Raketenwürmer (1997) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 6462) [ClassicSimilarity], result of:
          0.049801327 = score(doc=6462,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 6462, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=6462)
      0.25 = coord(1/4)
    
    Abstract
    Sie rasen wie gestört durchs Netz, klicken aus alles, was sich bewegt, merken sich jeden noch so unwichtigen Blödsinn - und sind damit zum wichtigsten und zugleich umstrittensten Stückchen Software im Internet geworden: die sog. Crawlers, Robots, Spiders, Worms und Ants
    Content
    Beitrag zu den verschiedenen search engines des Internet mit Erläuterung der 'META-Tags' im HEAD-Bereich von HTML-Dokumenten: <META name="description" content="..."> ("..." nicht länger als 200 Zeichen) und <META name="keywords" content="..."> ("..." als Komma separierte Stichwortliste, die nicht länger als 1000 Zeichen sein soll)
  4. Schneller finden! (1999) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 2929) [ClassicSimilarity], result of:
          0.049801327 = score(doc=2929,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 2929, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2929)
      0.25 = coord(1/4)
    
    Abstract
    Erstmals im Langzeittest: die deutschen Webkataloge und Suchmaschinen! Drei Monate lang haben wir geprüft, wie hilfreich die Arbeit dieser Web-Pfadfinder wirklich ist. Und wie man noch schneller und besser ans Ziel gelangt
    Content
    Bearbeitet wurden folgende 3 Fragen: (1) Proxemik; (2) Oliver Kahn; (3) Apartment UND (Rügen ODER Usedom) NICHT Binz
  5. Karzauninkat, S.: Inflation der Metasucher (1999) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 4134) [ClassicSimilarity], result of:
          0.049801327 = score(doc=4134,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 4134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4134)
      0.25 = coord(1/4)
    
    Abstract
    Vorstellung verschiedener deutscher und internationaler Meta-Suchmaschinen
  6. Stock, M.; Stock, W.G.: Klassifikation und terminologische Kontrolle : Yahoo!, Open Directory und Oingo im Vergleich (2000) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.049801327 = score(doc=5496,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 5496, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=5496)
      0.25 = coord(1/4)
    
    Abstract
    In Password 11/2000 wurden durch einen Retrievaltest die qualitativ führenden Suchwerkzeuge im Internet bestimmt. In den nächsten Teilen unseres State of the Art - Berichts über Retrievalsysteme im World Wide Weh beschreiben wir einzelne interessante Ansätze der Technik der TopSuchwerkzeuge. Den Anfang machen die klassifikatorischen Verzeichnisse Yahoo! und das Open Directory-Projekt sowie das System Oingo, das im Rahmen eines "semantischen Retrievals" das Homonym- und Synonymproblem angeht
  7. Lewandowski, D.: Aktualität als erfolgskritischer Faktor bei Suchmaschinen (2006) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 1816) [ClassicSimilarity], result of:
          0.049801327 = score(doc=1816,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 1816, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1816)
      0.25 = coord(1/4)
    
    Abstract
    Aktualitätsfaktoren spielen bei Suchmaschinen auf unterschiedlichen Ebenen eine Rolle: Einerseits geht es um die Aktualität der Datenbestände (Index-Aktualität), andererseits um Aktualitätsfaktoren in der Recherche, und schließlich um Aktualitätsfaktoren im Banking. Zu allen drei Bereichen werden die wesentlichen Arbeiten diskutiert. Der Artikel gibt damit einen Überblick über die Vielschichtigkeit des Aktualitätsthemas und zeigt, dass Aktualität für Suchmaschinen ein erfolgskritischer Faktor ist und in Zukunft noch in verstärktem Maß werden dürfte.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.3, S.141-148
  8. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 2097) [ClassicSimilarity], result of:
          0.049801327 = score(doc=2097,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 2097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2097)
      0.25 = coord(1/4)
    
    Abstract
    Das Programm stand unter dem Motto "Die Internet Wirtschaft - Geld verdienen im Internet". Den etwa 50 live Teilnehmenden berichteten Experten aus der Internet-Wirtschaft über ihre Geschäftsmodelle sowie die Erfolgsfaktoren. Am Nachmittag ging es unter dem Überbegriff "Netzpolitik" um aktuelle Diskussionen mit wirtschaftspolitischem Hintergrund und in den beiden Podiumssitzungen teils ungewohnt hitzig und persönlich "giftig" aber sehr aktuell um "Anonymität im Netz, ein Bürgerrecht?" und um die netzpolitischen Koalitionsverhandlungen in Berlin.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.329-330
  9. Grasso, L.L.; Wahlig, H.: Google und seine Suchparameter : Eine Top 20-Precision Analyse anhand repräsentativ ausgewählter Anfragen (2005) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 3275) [ClassicSimilarity], result of:
          0.049801327 = score(doc=3275,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 3275, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3275)
      0.25 = coord(1/4)
    
    Abstract
    Im Aufsatz werden zunächst führende Precision-Analysen zusammengefasst und kritisch bewertet. Darauf aufbauend werden Methodik und Ergebnisse dieser auf Google beschränkten Untersuchung vorgestellt. Im Mittelpunkt der Untersuchung werden die von Google angebotenen Retrievaloperatoren einer Qualitätsmessung unterzogen. Als methodisches Mittel dazu dient eine Top20-Precision-Analyse von acht Suchanfragen verschiedener vorab definierter Nutzertypen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.2, S.77-86
  10. Rath, M.: ¬Das Recht der Internet-Suchmaschinen (2005) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 4005) [ClassicSimilarity], result of:
          0.049801327 = score(doc=4005,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 4005, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.125 = fieldNorm(doc=4005)
      0.25 = coord(1/4)
    
    Series
    Recht und neue Medien; 9
  11. Google findet Office-Dateien (2001) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 4530) [ClassicSimilarity], result of:
          0.049801327 = score(doc=4530,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 4530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4530)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google nimmt sich nun auch Office-Dokumente vor: Auf Anweisung in den erweiterten Einstellungen erkennt sie Microsoft Word, Powerpoint und Excel-Dateien sowie Texte in RTF und Postscript. Google kann die Fundstücke in das HTML-Format übersetzen und im Web-Browser anzeigen. Das erspart die Installation der Anwendungen und schützt vor Macro-Viren. Allerdings bereiten die Umlaute noch Probleme
  12. Becker, F.: Internet-Suchmaschinen : Funktionsweise und Beurteilung (1999) 0.01
    0.012450332 = product of:
      0.049801327 = sum of:
        0.049801327 = weight(_text_:und in 1770) [ClassicSimilarity], result of:
          0.049801327 = score(doc=1770,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.39180204 = fieldWeight in 1770, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1770)
      0.25 = coord(1/4)
    
    Abstract
    Nach einer kurzen Darstellung der Entwicklung der Suchdienste wird das Suchretrieval von AltaVista näher beschrieben. Es werden Kriterien für die Beurteilung der Suchdienste festgelegt. Danach folgt die Beschreibung der Möglichkeiten der einzelnen Suchdienste und ihre Beurteilung. Zum Schluß wird über die Auswahl eines Suchdienstes diskutiert.
    Footnote
    Überarbeitete Ausgabe der Diplomarbeit im Studiengang Öffentliche Bibliotheken bei der Fachhochschule Stuttgart, Hochschule für Bibliotheks- und Informationswesen.
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.2, S.205-211
  13. Fauldrath, J.; Kunisch, A.: Kooperative Evaluation der Usability von Suchmaschineninterfaces (2005) 0.01
    0.012352681 = product of:
      0.049410723 = sum of:
        0.049410723 = weight(_text_:und in 3186) [ClassicSimilarity], result of:
          0.049410723 = score(doc=3186,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38872904 = fieldWeight in 3186, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3186)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen einer Projektarbeit des Fachbereichs Informations- und Wissensmanagement (IuW) der Fachhochschule Darmstadt mit T-Online International AG (Weiterstadt) wurde eine Untersuchung der Funktionalitäten von Suchmaschinen, Portalen und Metasuchmaschinen durchgeführt. Ziel war es zu ermitteln, inwieweit Standards für das Produkt Suchdienstleistung im Web existieren und wie diese Funktionalitäten bereits heute in die Angebote integriert sind. Hierzu wurden in enger Zusammenarbeit ein Kriterienkatalog erarbeitet und anschließend die Produkte evaluiert. Besonders wichtig ist dabei, dass die Nutzer das Gefühl erhalten, ihre Distanz zur gesuchten Information durch das Angebot zu verringern. Hierbei ist jede Form von Vereinfachung und Hilfe gewünscht, um möglichst schnell, einfach und umfassend zum Ergebnis zu kommen. Das Suchangebot ist für die Suchmaschinenanbieter ein Wirtschaftsfaktor, aber auch für kommerzielle Anbieter ist es wichtig, mit einem möglichst hohen Ranking auf gut gestalteten Ergebnisseiten auffindbar zu sein. Deshalb ist das Thema Usability von Suchmaschineninterfaces brandaktuell.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.1, S.21-28
  14. Schamberger, J.: Webkataloge : eine alte, neue Alternative für Wirtschaft und Wissenschaft zur Informationsbeschaffung im WWW (2005) 0.01
    0.012352681 = product of:
      0.049410723 = sum of:
        0.049410723 = weight(_text_:und in 3982) [ClassicSimilarity], result of:
          0.049410723 = score(doc=3982,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38872904 = fieldWeight in 3982, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3982)
      0.25 = coord(1/4)
    
    Abstract
    Das Word Wide Web, oder breiter gefasst das Internet ist heute für viele Unternehmen und deren Mitarbeitern zu einer der wichtigsten und am meisten genutzten Informationsquellen geworden, um ihre täglichen Arbeitsaufgaben zu erfüllen. Dem gegenüber stehen Untersuchungen, diezeigen, dass in den wenigsten Fällen im Web das gefunden wird, was gesucht wird. Ursachen liegen u.a. in dervorwiegenden Benutzung von konsumentenorientierten Suchmaschinen wie Google. Die Folgen dieser mangelhaften Suchergebnisse haben aber direkte betriebswirtschaftliche Auswirkungen im Bezug auf Arbeitszeit Wettbewerbsfähigkeit und Kosten für die Unternehmen. Eine mögliche Lösung aus diesem Informationschaos bieten spezialisierte Web- und Themenkataloge. Die Anforderungen an diese Verzeichnisse unterscheiden sich aber teilweise erheblich von den bekannten Webkatalogen wie Web.de oder Allesklar. Neben diesen alten, neuen Suchwerkzeugen wird für eine wirklich effiziente Nutzung des WWW auch bei der Qualifizierung und Weiterbildung der Mitarbeiter ein neuer Weg eingeschlagen werden müssen.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.295-302
  15. Quirmbach, S.M.: Suchmaschinen : User Experience, Usability und nutzerzentrierte Website-Gestaltung (2012) 0.01
    0.012352681 = product of:
      0.049410723 = sum of:
        0.049410723 = weight(_text_:und in 1705) [ClassicSimilarity], result of:
          0.049410723 = score(doc=1705,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38872904 = fieldWeight in 1705, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1705)
      0.25 = coord(1/4)
    
    Abstract
    Zeigt übersichtlich die Usability anhand des Suchprozesses und der Mensch-Maschine-Interaktion mit den entstehenden Problemen auf. Bewertet die Kritikalität der identifizierten Usability-Probleme und verdeutlicht deren Auswirkungen auf die User Experience der Suche. Die konsequente Optimierung der User Experience und der Usability einer Suchmaschine ist Basis einer erfolgreichen Entwicklung von Websites. Suchmaschinen werden nicht nur als Funktion innerhalb von Websites eingesetzt, sondern kommen auch in unterschiedlichen Ausprägungen innerhalb von Applikationen, Online-Shops oder Intranets von Unternehmen vor. Die Autorin beschreibt, welche Evaluationsmethoden eingesetzt werden, um eine Suchmaschine zu optimieren, wo typische Probleme auftreten und wie sich diese auf die User Experience auswirken. Best-Practice-Beispiele und Tipps helfen sowohl Einsteigern als auch Experten bei der Umsetzung einer übergreifenden User Experience-Strategie und geben Hilfestellung bei der wirtschaftlichen Betrachtung im Rahmen der Produktentwicklung.
  16. Lewandowski, D.: Suchmaschinen verstehen (2015) 0.01
    0.012352681 = product of:
      0.049410723 = sum of:
        0.049410723 = weight(_text_:und in 337) [ClassicSimilarity], result of:
          0.049410723 = score(doc=337,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38872904 = fieldWeight in 337, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=337)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch betrachtet das Thema Suchmaschinen ausgehend von der täglichen Recherche und führt in die technischen Grundlagen, in Recherchetechniken sowie die gesellschaftlichen und wirtschaftlichen Bedingungen der Recherche im Web ein. Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarkts, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Nicht zuletzt wird auch die Seite der Recherche betrachtet und gezeigt, wie man mit den bekannten Suchmaschinen effizient recherchieren kann. Das Buch verhilft allen, die mit Suchmaschinen recherchieren oder sich beruflich mit der Optimierung, Aufbereitung und Sichtbarmachung von Inhalten beschäftigen, zu einem umfassenden Verständnis der Ansätze, Stärken und Schwächen verschiedener Suchmaschinen und der ihnen zugrunde liegenden Technologien.
  17. Krüger, C.: Evaluation des WWW-Suchdienstes GERHARD unter besonderer Beachtung automatischer Indexierung (1999) 0.01
    0.012303565 = product of:
      0.04921426 = sum of:
        0.04921426 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
          0.04921426 = score(doc=1777,freq=20.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3871834 = fieldWeight in 1777, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1777)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beinhaltet eine Beschreibung und Evaluation des WWW - Suchdienstes GERHARD (German Harvest Automated Retrieval and Directory). GERHARD ist ein Such- und Navigationssystem für das deutsche World Wide Web, weiches ausschließlich wissenschaftlich relevante Dokumente sammelt, und diese auf der Basis computerlinguistischer und statistischer Methoden automatisch mit Hilfe eines bibliothekarischen Klassifikationssystems klassifiziert. Mit dem DFG - Projekt GERHARD ist der Versuch unternommen worden, mit einem auf einem automatischen Klassifizierungsverfahren basierenden World Wide Web - Dienst eine Alternative zu herkömmlichen Methoden der Interneterschließung zu entwickeln. GERHARD ist im deutschsprachigen Raum das einzige Verzeichnis von Internetressourcen, dessen Erstellung und Aktualisierung vollständig automatisch (also maschinell) erfolgt. GERHARD beschränkt sich dabei auf den Nachweis von Dokumenten auf wissenschaftlichen WWW - Servern. Die Grundidee dabei war, kostenintensive intellektuelle Erschließung und Klassifizierung von lnternetseiten durch computerlinguistische und statistische Methoden zu ersetzen, um auf diese Weise die nachgewiesenen Internetressourcen automatisch auf das Vokabular eines bibliothekarischen Klassifikationssystems abzubilden. GERHARD steht für German Harvest Automated Retrieval and Directory. Die WWW - Adresse (URL) von GERHARD lautet: http://www.gerhard.de. Im Rahmen der vorliegenden Diplomarbeit soll eine Beschreibung des Dienstes mit besonderem Schwerpunkt auf dem zugrundeliegenden Indexierungs- bzw. Klassifizierungssystem erfolgen und anschließend mit Hilfe eines kleinen Retrievaltests die Effektivität von GERHARD überprüft werden.
    Footnote
    Diplomarbeit im Fach Inhaltliche Erschließung, Studiengang Informationsmanagement der FH Stuttgart - Hochschule für Bibliotheks- und Informationswesen
    Imprint
    Stuttgart : FH - Hochschule für Bibliotheks- und Informationswesen
  18. Lamprecht, S.: Professionelle Recherche im Internet (1999) 0.01
    0.012179908 = product of:
      0.048719633 = sum of:
        0.048719633 = weight(_text_:und in 3856) [ClassicSimilarity], result of:
          0.048719633 = score(doc=3856,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38329202 = fieldWeight in 3856, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=3856)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Buch bietet einen sehr guten Überblick, wie man sich Informationen schnell und effizient verschaffen kann. Neben Suchmaschinen werden auch Mailing-Listen und Newsgroups (Diskussionforen) vorgestellt. Es wird anschaulich beschrieben, wie sie gegliedert sind und wie man daran teilnehmen kann. Rund die Hälfte des Buches beschäftigt sich mit Spezialrecherchen, wie etwa die Suche nach Software, Personen oder Jobs. Im Kapitel 'Quellen für Aus- und Fortbildung' findet man neben der 'Free Internet Encyclopdedia' und den 'Online Dictionaries' viele weitere nützliche Adressen. Obwohl sich das Buch primär an Profis richtet, ist es auch für Einsteiger geeignet. Die Recherchestrategien werden allgemein verständlich erklärt
  19. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich : Teil 1: Retrievaltests mit Known Item searches (2000) 0.01
    0.012179908 = product of:
      0.048719633 = sum of:
        0.048719633 = weight(_text_:und in 5772) [ClassicSimilarity], result of:
          0.048719633 = score(doc=5772,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38329202 = fieldWeight in 5772, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5772)
      0.25 = coord(1/4)
    
    Abstract
    Web Search Engines und Web Directories sind die technologische Speerspitze im High-Tech-Bereich Internet. Als Suchassistenten gestatten sie Laien und Profi-Searchern gleichsam einen optimalen Einstieg in die Vielfalt der Informationsquellen des World Wide Web, Sie ermöglichen durch eine Kombination aus hierarchisch geordnetem kontrollierten Vokabular, automatischer Indexierung sowie diverser Synonym-, Homonym- und Fachwörterbücher einen zielgenauen Zugriff auf WebSites. - Stop! Glauben Sie das? Wir waren skeptisch und haben Suchmaschinen und Suchverzeichnisse genau angeschaut. Durchgeführt wurde ein Retrievaltest, der unterschiedliche Suchsysteme mit jeweils dergleichen Anfrage konfrontierte, auf die wir bereits die Antwort wussten ("Known Item Search"). Skizziert werden zudem bisher ausgearbeitete empirische Erhebungen zur Evaluation von Web-Retrievalsystemen, angefangen von seriösen informationswissenschaftlichen Forschungen bis hinzu den Tests in Publikumszeitschriften
  20. "Internet-Suchmaschine der nächsten Generation" : Seruba (2001) 0.01
    0.012179908 = product of:
      0.048719633 = sum of:
        0.048719633 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.048719633 = score(doc=5917,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.38329202 = fieldWeight in 5917, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5917)
      0.25 = coord(1/4)
    
    Abstract
    Das Hamburger Unternehmen Seruba unter Leitung von Prof. Dr. Winfried Schmitz-Esser hat unter der Adresse www.lex4.com eine "Internet-Suchmaschine der nächsten Generation" gestartet, über die ein Thema in Deutsch, Englisch, Französisch und Spanisch erschlossen werden kann. Lex4 basiert auf den "Lexicosaurus", einer Kombination aus Lexikon und Thesaurus, die dreierlei verzeichnet: was unter einem bestimmten Begriff zu verstehen ist, in welchem Zusammenhang dieser Begriff zu anderen Begriffen steht und welche Ausdrücke für diesen Begriff in den vier genannten Sprachen geläufig sind. Insgesamt sind in dem semantischen Netzwerk über 500.000 Einzelbegriffe zu Bedeutungs- und Themenzusammenhängen verknüpft. Die 1998 gegründete Seruba ist risikokapitalfinanziert und beschäftigt 26 Mitarbeiter. Schmitz-Esser lehrt Mediendokumentation an der FH Hamburg

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications