-
Lewandowski, D.; Spree, U.: ¬Die Forschungsgruppe Search Studies an der HAW Hamburg (2019)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 5021) [ClassicSimilarity], result of:
0.03324022 = score(doc=5021,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 5021, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=5021)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.1, S.1-2
-
Freistetter, F.: Vollkommen logisch (2020)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 5658) [ClassicSimilarity], result of:
0.03324022 = score(doc=5658,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 5658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=5658)
0.25 = coord(1/4)
- Abstract
- Das Internet steckt voller Informationen. Um aber diejenigen zu finden, die einen wirklich interessieren, braucht man gute Suchmaschinen - und die richtige Mathematik.
-
Charlier, M.: Netgeschichten: http://sexygirls.com (1997)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
0.03324022 = score(doc=1216,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 1216, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=1216)
0.25 = coord(1/4)
- Abstract
- Mit einer kurzen Geschichte der Entwicklung von Yahoo durch Jerry Yang und David Filo.
-
Heess, J.: Wahre Gewinner (2003)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 1246) [ClassicSimilarity], result of:
0.03324022 = score(doc=1246,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 1246, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1246)
0.25 = coord(1/4)
- Content
- "Das Leben ist ein einziges Entwederoder. Und oft genug fallen einem die täglichen Entscheidungen ganz schön schwer. Soll ich lieber den dunkelblauen oder doch den gestreiften Pullover anziehen? Kaufe ich Apfelsinen oder lieber Mandarinen, um die Vitaminversorgung zu gewährleisten? Bleibe ich Kundin bei AOL, oder soll ich es besser mal mit T-Online versuchen? Ein einziges Hin und Her ist das! Die binäre Verzweiflung des Menschen hat sich ein cleverer Internetdienstleister zunutze gemacht: Unter Anwendung der Suchmaschine Google bietet www.googlefight.com die Antwort auf alle Der-oder-das-Fragen und Diese-oder-jene-Ungewissheiten. Man gibt zwei Wörter in Suchfelder ein, und Googlefight sucht in altbekannter Google-Geschwindigkeit zuverlässig die Treffer im Netz zusammen Das Wort mit den meisten Punkten gewinnt.Jeder kann gegen jeden antreten. Die Stones verlieren mit 982 000 Erwähnungen im World Wide Web deutlich gegen die Beatles (2750000), und Marlene Dietrich deklassiert mit 144 000 Treffern Hildegard Knef, die nur auf 14000 kommt. Gerhard Schröder lost gegen George Bush mit über 2300000 Punkten Rückstand. Und Penny schlägt Aldi in dreifacher Millionenhöhe - o.k., das könnte vielleicht an der homonymen Natur von Penny liegen.Doch nicht nur zum Spaß sollte Googlefight benutzt werden. Dafür ist das Lein viel zu ernst. Und stellt uni - wie anfangs geschildert - regelmäßig vor knifflige Entscheidungsfragen. Wieso sollte man nicht einfach Googlefight zu seinem ständigen Berater machen? Schließlich hat die Kampfsuchmaschine das ganze Netz unter Kontrolle; da kann man sich drauf verlassen. Also gut: Beim Wettstreit zwischen AOL und T-Online siegt AOL mit Abstand, und die Apfelsinen entscheiden das Rennen um den besten Vitaminversorger souverän gegen die Mandarinen für sich. Bleibt die Kleiderfrage offen. Praktisch, Googlefight erspart das Beinevertreten vor dem Schrank. Trommelwirbel, and the winner is: der gestreifte Pullover. Genau 91 Treffer, der dunkelblaue kommt auf 34. Eindeutiges Ergebnis. Oder? Oder zerreißen sich etwa die Leute den Mund über Zebramuster? Ich greife zum blauen Stück. Manchmal sind vermeintliche Verlierer die wahren Gewinner."
-
¬Der Erfolg von Google (2003)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
0.03324022 = score(doc=1407,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 1407, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1407)
0.25 = coord(1/4)
- Abstract
- Google ist die weltweit größte Suchmaschine und bietet die schnellste und einfachste Informationssuche im Web an. Googles Aufgabe ist die Bereitstellung des besten Suchdienstes im Internet, um die weltweiten Informationen allgemein erreichbar und nutzbar zu machen. Google erreicht über 2 Mrd. Web-Seiten und liefert in meist weniger als einer halben Sekunde relevante Suchergebnisse an Benutzer in aller Welt. Im Augenblick beantwortet Google mehr als 100 Millionen Anfragen pro Tag.
- Content
- "Zwei Stanford-Doktoranden, Larry Page und Sergey Brin, gründeten 1998 Google. Das Unternehmen, das sich in Privatbesitz befindet, gab 1999 bekannt, dass es Eigenkapitalinvestitionen in Höhe von 25 Millionen US$ sicherstellen konnte. Unter den Investoren sind Kleiner Perkins Caufeld & Byers und Sequoia Capital. Google betreibt seinen Dienst auf seiner eigenen, öffentlich zugänglichen Website, www.google.com. Die Firma bietet außerdem unter gemeinsamen Markennamen Informationsdienstleistern Suchlösungen für das Web an. - Die Google-Technologie - Mit einer innovativen Suchtechnik und einer eleganten Benutzeroberfläche setzt sich Google von den Suchmaschinen der ersten Generation ab. Statt nur eine Stichwort- oder Meta-Suchtechnologie zu verwenden, basiert Google auf der zum Patent angemeldeten PageRankTM-Technologie, bei der die wichtigsten Ergebnisse immer zuerst gelistet werden. PageRank unternimmt eine objektive Bewertung der Wichtigkeit von Webseiten, bei der 500 Millionen Variablen und mehr als 2 Milliorden Begriffe verglichen werden. Dabei nutzt PageRank die riesige Link-Struktur des World-Wide-Web als Organisationsmittel. Der Kern der Methode ist dabei, dass Google einen Link von Seite A zu Seite B als ein "Votum" von Seite Afür Seite B interpretiert. Google schätzt die Wichtigkeit einer Seite über dieses Votum ein. Außerdem wird von Google die Seite bewertet, von der das Votum stammt. Googles komplexe, automatische Suchmethoden schließen einen menschlichen Eingriff aus. Im Gegensatzzu anderen Suchmaschinen kannvon Google keine höhere Listung oder eine kommerzielle Veränderung der Ergebnisse gekauft werden. Eine Google-Suche ist ein einfacher, ehrlicher und objektiver Weg, qualitativ hochwertige Websites zu finden."
-
Google im Kaufrausch (2007)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 2056) [ClassicSimilarity], result of:
0.03324022 = score(doc=2056,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 2056, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2056)
0.25 = coord(1/4)
- Abstract
- Die Suchmaschine kauft sich ein Firmen-Imperium zusammen und sammelt immer genauere User-Profile.
- Content
- Es fällt schwer, sich das Internet ohne Google vorzustellen. Denn was die beliebte Suchmaschine nicht findet, das existiert für die meisten Surfer nicht. Doch Google ist weit mehr als eine Suchmaschine. Egal ob E-Mails, Landkarten oder Weblogs, Oberall treffen Surfer auf Produkte des Internet-Riesen. Die Angebote kosten keinen Cent. Trotzdem zahlen die Nutzer dafür - indem sie einen Teil ihrer Privatsphäre Preisgehen. Denn Google sammelt fleißig User-Daten für den Verkauf von personalisierter Werbung. Und jeder neue G-Service verrät dem US-Unternehmen ein neues Detail über seine Fans. Beispiel YouTube: Zum Preis von 1,65 Milliarden Dollar übernahm Google das führende Videoportal und dominiert seitdem mit 60 Prozent den amerikanischen Markt für Kurzfilme im Web. Das Ziel auch hier: personalisierte Werbung in den Clips und detaillierte Informationen Ober die Nutzer - darüber etwa, welche Videoschnipsel sie mögen. Geldquelle: Google braucht User-Profile für die Werbung Gespenstisch muten die "zielgerichteten Anzeigen" beim E-Mail-Service Google Mail an: Wer hier mit Freunden über anstehende Urlaubsreisen mailt, bekommt nur Stunden später Werbung für die passenden Flüge und Hotels. Die Sammelwut von Google erschreckt auch Experten. So warnt Hendrik Speck, Professor für interaktive Online-Medien an der Fachhochschule Kaiserslautern: "Das vermeintlich kostenlose Suchangebot kommt einer Daten-Prostitution gleich, wenn wie bei Google Cookies gespeichert werden, die eine eindeutige Nutzer-Identifizierung bis zum Jahr 2038 vorsehen." Immerhin auf diese Kritik hört die Suchmaschine: Künftig verfallen die Cookies schon nach zwei Jahren.
Das große Problem ist aber, dass Google gar nicht anders kann als Daten sammeln. Denn die auf einzelne Surfer speziell zugeschnittene Werbung ist fast die einzige Einnahmequelle des Web-Giganten: Im ersten Quartal dieses Jahres erwirtschaftete die Suchmaschine einen Umsatz von 3,66 Milliarden US-Dollar - die Werbe-Abteilung des Konzerns lieferte 98 Prozent davon. Zukunft: Neue 3D-Pläne für Werbung in Landkarten Kein Wunder also, dass Google bei jedem neuen Firmenkauf und jedem neuen Service nach Werbemöglichkeiten sucht. Jüngstes Opfer der Anzeigen-Flut sind RSS-Feeds, die üblicherweise News von Webseiten in einer Art Abo zusammenfassen. Mit der Übernahme der Firma FeedBurner dominiert Google nun auch in diesem Markt. FeedBurner sammelt RSS-Feeds und versieht sie mit Werbung. Genial für Google: Die Lesegewohnheiten der Nutzer sind eine erstklassige Grundlage für noch genauer zugeschnittene personalisierte Werbung. Doch die RSS-Schlagzeilen sind nur eine Kleinigkeit im Vergleich zum nächsten Coup: Derzeit durchkreuzen Autos US-Großstädte und fertigen mit Hilfe mehrerer Kameras Rundum-Aufnahmen an. Die Fotos werden in Google Earth eingebunden. Eigentlich ein netter Service für die User - aber auch eine geniale Werbefläche: Wer demnächst eine Kochshow bei YouTube abruft oder via Mail Freunde zum Essen einlädt, der bekommt bald einen Anzeigen-Link zum nächsten Supermarkt - inklusive 3D-Foto und animiertem Anfahrtsplan.
-
Betschon, S.: Ellbögeln um Googles Gunst : Der Google-Suchindex als Spiegelbild von politischen und wirtschaftlichen Interessenkonflikten (2006)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 5957) [ClassicSimilarity], result of:
0.03324022 = score(doc=5957,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 5957, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=5957)
0.25 = coord(1/4)
- Abstract
- Vor zehn Jahren, am 8. Februar 1996, wurde in Davos die "Unabhängigkeitserklärung" des Cyberspace verlesen. Anlässlich des Weltwirtschaftsforums trat ein gewisser John Perry Barlow aufs Podest, ein Viehzüchter aus Wyoming, der sich als Songschreiber der kalifornischen Psychedelic-Pop-Band Greatful Dead einen Namen gemacht hatte: "Regierungen der industrialisierten Welt, ihr müden Giganten aus Fleisch und Stahl, ich komme vom Cyberspace, der neuen Heimat des Geistes. Im Namen der Zukunft fordere ich euch Vertreter der Vergangenheit auf, uns allein zu lassen. Wir haben keine gewählte Regierung, und wir werden voraussichtlich auch nie eine haben, deshalb richte ich mich an euch mit keiner anderen Autorität als mit der, die der Freiheit selbst zu eigen ist. Ich erkläre den weltweiten Gesellschaftsraum, den wir aufbauen, als unabhängig von der Tyrannei, die ihr uns auferlegen wollt." In China, Deutschland, Frankreich, Russland, Singapur und den Vereinigten Staaten würden an den Grenzen zum Cyberspace Wachposten aufgebaut, doch diese könnten die Verbreitung des ansteckenden "Virus der Freiheit" nicht stoppen. Das Echo war, so berichten Zeitzeugen, verhalten, vermutlich wussten viele der anwesenden Politiker und Wirtschaftsführer mit Begriffen wie "Cyberspace" oder "World Wide Web" nichts anzufangen. Als Barlow die Unabhängigkeitserklärung zwei Tage später in Cannes an der MultimediaFachmesse Milia erneut vortrug, soll es dann aber donnernden Applaus gegeben haben, die Leute hätten eine halbe Stunde lang geklatscht. Die "alten Mächte aus Fleisch und Stahl" haben sich inzwischen auch im Reich der Bits und Bytes durchgesetzt. Nichts illustriert dies besser als Googles Kotau vor der chinesischen Regierung. Um Zugang zu erhalten zum chinesischen Markt, wo bereits mehr als 110 Millionen Menschen regelmässig das Internet benutzen, erklärte sich die kalifornische Jungfirma Ende Januar bereit, ihre Suchmaschine zu modifizieren, so dass sie Webseiten ausblendet, die zu Themen wie Taiwan, Tibet oder Tiananmen-Platz-Protesten Meinungen verbreiten, die denjenigen der chinesischen Regierung nicht entsprechen. Die Firma, die als ihr Unternehmensziel nennt, "die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen", deren inoffizieller Leitspruch heisst "Don't be evil" - nicht böse sein - diese Firma übernimmt nun im Auftrag der chinesischen Regierung das Amt des Zensors.
-
Lovink, G.: ¬Die Gesellschaft der Suche : Fragen oder Googeln (2009)
0.01
0.008310055 = product of:
0.03324022 = sum of:
0.03324022 = weight(_text_:und in 18) [ClassicSimilarity], result of:
0.03324022 = score(doc=18,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29385152 = fieldWeight in 18, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=18)
0.25 = coord(1/4)
- Abstract
- Ein Gespenst geht um unter den intellektuellen Eliten der Welt: Informationsüberlastung. Das gemeine Volk hat sich strategische Ressourcen unter den Nagel gerissen und verstopft einst sorgfältig überwachte Medienkanäle. Vor dem Internet beruhte die Macht der Mandarinklasse auf der Idee, dass man "Geschwätz" von "Wissen" trennen könne. Mit dem Aufstieg von Internetsuchmaschinen ist es jedoch nicht mehr möglich, zwischen patrizischen Einsichten und plebejischem Tratsch zu unterscheiden. Die Trennung von high und low, dem Ernsten und dem Trivialen, und ihre Vermischung zu Zeiten des Karnevals stammen aus vergangenen Zeiten. Sie sollten uns nicht weiter beunruhigen. Heute gibt ein völlig neues Phänomen Anlass zur Sorge: Die Listen der Suchmaschinen gehorchen dem Gebot der Popularität, nicht der Wahrheit. Zu suchen bestimmt heute unser Leben. Mit dem dramatischen Anwachsen aufrufbarer Information sind wir von Werkzeugen der Informationsgewinnung abhängig geworden. Wir suchen nach Telefonnummern, Adressen, Öffnungszeiten, Namen von Personen, Flugdaten und Schnäppchen. Und wenn uns das rasend macht, deklarieren wir den stetig wachsenden Berg grauer Materie als "Datenmüll". Bald werden wir uns darin nur noch verlieren, wenn wir suchen. Die alten Hierarchien der Kommunikation sind nicht nur implodiert, die Kommunikation selbst hat eine Form angenommen, die einem Angriff auf das zerebrale System gleichkommt. Nicht nur ist das Rauschen des Populären zu unerträglicher Lautstärke angeschwollen, wir haben auch nicht mehr die Kraft, noch eine weitere Anfrage wichtiger Kollegen zu beantworten. Selbst freundliche Grüße von Freunden und Verwandten sind mit der lästigen Erwartung verbunden, beantwortet zu werden. Was die gebildeten Klassen aber am meisten beschäftigt, ist die Tatsache, dass das Geplapper die bis dahin geschützten Bereiche von Wissenschaft und Philosophie erreicht hat, während man sich eigentlich Sorgen darüber machen müsste, wer das zunehmend zentralisierte Computernetz kontrolliert.
-
Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006)
0.01
0.008302839 = product of:
0.033211354 = sum of:
0.033211354 = weight(_text_:und in 4730) [ClassicSimilarity], result of:
0.033211354 = score(doc=4730,freq=46.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.29359633 = fieldWeight in 4730, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=4730)
0.25 = coord(1/4)
- Content
- "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.
Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: Kü statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
-
Lischka, K.: Falsche Fährten (2002)
0.01
0.008120336 = product of:
0.032481343 = sum of:
0.032481343 = weight(_text_:und in 863) [ClassicSimilarity], result of:
0.032481343 = score(doc=863,freq=44.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28714287 = fieldWeight in 863, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=863)
0.25 = coord(1/4)
- Abstract
- So wollte der CDU-Ortsverband Fuldatal wohl kaum bekannt werden: Die Nordhessen gerieten in die Schlagzeilen, weil sie mit falschen und fragwürdigen Schlüsselwör-tern Nutzer von Suchmaschinen auf ihre Webseiten locken wollten. Solche erschlichenen Einträge bei Google und Co. sind nur ein Grund, warum die Ergebnislisten selten objektiv ausfallen. Manche Einträge sind auch schlicht gekauft -und andere fehlen, weil sie gefiltert wurden.
- Content
- "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.
-
Gernert, J.: Googles Gegner : Jime Wales, Mitgründer von Wikipedia, drängt mit einer eigenen Suchmaschine ins Netz (2007)
0.01
0.008046177 = product of:
0.03218471 = sum of:
0.03218471 = weight(_text_:und in 4822) [ClassicSimilarity], result of:
0.03218471 = score(doc=4822,freq=30.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28452054 = fieldWeight in 4822, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=4822)
0.25 = coord(1/4)
- Content
- "Wenn jemand erst einmal den Namenszusatz "Internet-Revolutionär" trägt, hört ihm sofort jeder zu, sobald er von einem neuen Projekt spricht. Der Amerikaner Jimmy Wales hat vor sechs Jahren das Internet-Lexikon Wikipedia mitgegründet. Das Unerhörte an dieser digitalen Enzyklopädie war die Tatsache, dass sie von ihren Nutzern selbst verfasst wurde. Eine offene Online-Gemeinschaft schuf ein Wissensarsenal. Während Kritiker immer wieder an der Seriosität der "anarchischen Wiki-Welt" zweifelten, fanden Studien heraus, dass die Einträge durchaus mit althergebrachten Lexika mithalten konnten, wenn nicht sogar besser waren. Jetzt plant Jimmy Wales wieder etwas Neues: Er will den Suchmaschinenmarkt aufmischen. Ein Programm namens "Wikia Search" soll Google Konkurrenz machen. In einer Mail vom 24. Dezember schrieb Wales, dass die seit langem angekündigte Suchmaschine ab 7. Januar 2008 öffentlich zugänglich sein soll. Die Internet-Welt ist gespannt. Seit dem Erfolg von Wikipedia ist der 41 Jahre alte Wales zu einem Dauervortragsreisenden geworden. "Ich bin 250 Tage im Jahr unterwegs", hat er mal gesagt. Er trägt dabei gern Schwarz, weil da die Rotweinflecken nicht so auffallen. Snacks isst er immer in Viererschritten: je vier Nüsse, Trauben, Chips. Mit seiner Frau und der sechs Jahre alten Tochter wohnt er in Florida, das sei billiger als Kalifornien, sagt er. Die heimische Bibliothek sortiert er nach einem speziellen System: Er bringt Etiketten auf jedem Buchrücken an. Solche Marotten weisen ihn durchaus als "Nerd" aus, als einen der Welt nicht immer ganz zugewandten Computerfreak. Mit Gedrucktem, vor allem mit Lexika, hat Wales schon als Schüler viel Zeit verbracht. Auch für Computer und das Internet hat er sich bereits zu einer Zeit interessiert, als das die wenigsten taten.
Unruhiger Geist auf der Bühne Wenn Wales heute vor Publikum über die Enzyklopädie und seine Sicht aufs Internet spricht, bewegen sich seine Augen, die immer ein wenig rötlich und leicht müde wirken, schnell von einem Punkt zum anderen. Er geht in kleinen Schritten auf und ab. Das wirkt ein bisschen nervös, aber seine Stimme ist dabei ganz ruhig. Er hat bei solchen Vorträgen ein Leitthema: die Online-Gemeinschaft, die "Community". Auch bei seinem Suchmaschinen-Projekt "Wikia Search" steht dieser Community-Gedanke im Zentrum. Und Google, lässt Wales verbreiten, sei ihm einfach nicht gut genug. Dass der Marktführer, der mit 60 Prozent Anteil deutlich vor Yahoo mit seinen 14 und Microsoft mit seinen vier Prozent liegt, nicht immer die besten Ergebnisse liefert, darüber sind sich Experten schon länger einig. Ebenso lange tüfteln milliardenschwere Konzerne und ideenreiche Start-ups schon an Alternativen. Google bemisst die Wichtigkeit einer Seite daran, wie viele andere Seiten Links zu dieser Homepage gesetzt haben. Am Ende entscheidet eine spezielle und vor allem geheime Rechenformel. Jimmy Wales will dagegen mehr Offenheit schaffen, so das Versprechen: "Das Google-System fällt hinter verschlossenen Türen eine Entscheidung über Ergebnisse und ihre Reihenfolge. Darauf muss der Nutzer blind vertrauen." Bei "Wikia Search" nun soll jeder den Software-Code einsehen können. Gemeinsam sollen die Nutzer dafür sorgen, dass kein Datenmüll in die Trefferlisten gerät, so wie das bei Google oft der Fall ist. Die Ideal-Vorstellung: Die Nutzer des neuen Suchdienstes diskutieren über die Ergebnisse und ordnen sie selbst nach Wichtigkeit.
Auch wenn Wales oft einem genialischen "Nerd" ähnelt - angefangen hat er als Geschäftsmann. Er studierte Finanzwissenschaften, brach zwei Promotionsversuche ab, war dann aber als Börsenhändler erfolgreich. Sein erstes Internetprojekt bot den Nutzern Unterhaltung - und Busenbilder. Erst als er sich mit dem Philosophen Larry Sanger zusammentat und mit ihm Wikipedia gründete, ließ er sich von gemeinnützigen Interessen leiten. Das Online-Lexikon hat er nicht unbedingt aus Überzeugung zum Non-Profit-Projekt gemacht. "Es gab damals einfach kein Risiko-Kapital", sagt Wales. Er wird zwar gern in einer Reihe mit anderen Internet-Revolutionären wie den Skype-, Youtube- oder Myspace-Gründern genannt. Aber es gibt einen grundlegenden Unterschied: Sie alle haben aus einer Idee ein Projekt und daraus irgendwann mit einem spektakulären Verkauf an einen klassischen Konzern sehr viel Geld gemacht. Wikipedia dagegen gehört einer gemeinnützigen Stiftung. Der gute Mensch und das Geld Zusätzlich hat Wales seine Firma "Wikia" gegründet, mit der er online Fan-Communitys etwa für "Star Trek"-Anhänger anbietet. Das nötige Geld wird mit Werbung auf den Seiten verdient - dafür kooperiert "Wikia" übrigens mit Google. Wales ist eben ein Pragmatiker. Auch die neue Suchmaschine soll sich über Werbung finanzieren. Das Geld für den Anschub stammt von Investoren, darunter das Online-Versandhaus Amazon. Vielleicht hat Wales auch einfach etwas nachzuholen. Vielleicht wurmt es ihn als früheren Finanzfachmann inzwischen auch, dass er ständig zum "guten Menschen des Internets" erhöht wird, während sich die Visionen vieler seiner Rivalen mehr ausgezahlt haben."
-
Arnold, A.: Jetzt finden Sie alles schneller (2005)
0.01
0.008046177 = product of:
0.03218471 = sum of:
0.03218471 = weight(_text_:und in 74) [ClassicSimilarity], result of:
0.03218471 = score(doc=74,freq=30.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28452054 = fieldWeight in 74, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=74)
0.25 = coord(1/4)
- Abstract
- Geniale Tools machen das Leben einfacher und sparen Zeit: Die neuen Desktop-Suchmaschinen finden auf Ihrem PC Mails, Texte, Bilder, Musik und vieles mehr innerhalb von Sekunden.
- Content
- "Desktop-Suchprogramme finden zu einem Stichwort alle passenden Infos und Dateien auf Ihrem Rechner. Sie arbeiten schnell und sparen die mühsame Suche über den Windows-Explorer, der nur einen Bruchteil der relevanten Informationen findet. Ein Beispiel: Macht etwa der DSL-Zugang Schwierigkeiten und Sie suchen nach Tipps, wie sich das Problem lösen lässt, ist eine Desktop-Suche ideal. Sie findet das Stichwort "DSL" etwa in Ihrer Mailkorrespondenz, wenn Sie von Ihrem Provider mal eine Anleitung bekommen haben. Sie findet Handbücher zu Ihrer DSL-Hardware im PDF-Format. Sie findet Links zu DSL-Websites, wenn Sie solche in Ihren Favoriten haben, und sie findet jede weitere Information zum Thema DSL, die auf Ihrem Rechner gespeichert ist. Doch spüren Sie mit den Tools richt nur Dokumente auf. Sie finden damit auch Bilder und Musikdateien. Wer große Mengen von MP3- oder JPEG-Dateien auf seinem Rechner hat, sollten sich die Tools auf jeden Fall ansehen. Denn sie indizieren auch die Meta-Informationen. Bei Musikdateien ist das zum Beispiel der Name des Künstlers, des Albums oder das Erscheinungsjahr. Diese Informationen stehen in den ID3-Tags (Identify an MP3). In Bildern gibt es Zusatzinfos in den Exif-Daten (Exchangeable Image File Format), die etwa durch Stichwörter wie "Urlaub 2005", "Landschaften" und "Familie" das Foto beschreiben und wieder auffindbar machen.
Das leisten Desktop-Such Tools Desktop-Suchmaschinen indizieren alle gängigen Dateien auf Ihrem Rechner. Das heißt, sie speichern nicht nur den Dateinamen, sondern scannen auch den darin enthaltenen Text und merken sich diesen. Dazu ist nach der Installation einer Desktop-Suche zunächst mal ein Indizierungsvorgang nötig. Welche Ordner die Software durchsucht, stellen Sie in den Optionen der Programme ein. Die Tools führen die Indizierung nur dann aus, wenn am Rechner gerade nicht gearbeitet wird. Je nach Datenumfang und PC-Geschwindigkeitdauert der erste Suchlauf zwischen 10 Minuten und mehreren Stunden. Die Utilities sind also nach der Installation nicht sofort einsatzbereit. Haben Sie viele Daten auf Ihrem Rechner, kann es sich lohnen, den PC eine Nacht lang eingeschaltet zu lassen. Am nächsten Morgen ist der Index dann auf jeden Fall komplett, und Sie können Ioslegen. Die vorgestellten Desktop-Suchen indizieren alle gängigen Dateiformate. Lediglich dem Tool von Microsoft muss mit einem Plug-in noch das PDF-Format beigebracht werden. Wer auch mit exotischen Formaten arbeitet, findet auf den Websites der Anbieter oft Plugins oder Erweiterungspakete, mit denen die Programme weitere Dateitypen durchsuchen. Der Suchvorgang nach ein oder zwei Stichwörtern läuft bei allen Programmen flott abnach wenigen Sekunden präsentieren sie eine Ergebnisliste. Bei dieser Liste unterscheiden sich die Tools aber. Wir erwarten, dass sich die gefundenen Dateien gut sortieren lassen, etwa nach Ordnern, Dateitypen oder Kategorien wie Musik, Bilder, Dokumente. Zudem sollte jede Software Module zur Vorschau auf die gefundenen Dateien liefern oder aus dem Windows-System einbinden. Die Grenzen der Suchmaschinen Die Leistung der Tools hat uns beeindruckt. Besonders gut gefällt uns, dass sie auch in großen Musik- und Bildersammlungen suchen. Doch zeigen sich hier auch die Grenzen der Suchmaschinen. Damit ein Programm alle Bilder aus dem Urlaub 2005 liefert, muss man die Bilder erst einmal mit den entsprechenden Informationen versehen. Das ist aber mit den Desktop-Suchprogrammen nicht möglich. Sie brauchen dafür ein Spezialprogramm, etwa eine Bildverwaltung, mit dem Sie die Infos eingeben können. Somit brauchen Sie zusätzlich zur Desktop-Suchmaschine auf jeden Fall ergänzende Tools. Ein weiterer, wenn auch kleinerer, Nachteil ist der Speicherplatzbedarf. Für den Cache, der die Infos zu indizierten Dateien enthält, benötigen die Tools bis zu mehreren hundert MB. Spitzenreiter ist hier das Tool von Google, da es auch Kopien der meisten Dateien anlegt. Auch die anderen Programme weisen einen großen Cache auf. Wie viel Platz genau verbraucht wird, hängt von der Zahl und Art der indizierten Dateien ab."
-
Talbot, D.: Durchblick im Infodschungel (2009)
0.01
0.008046177 = product of:
0.03218471 = sum of:
0.03218471 = weight(_text_:und in 2865) [ClassicSimilarity], result of:
0.03218471 = score(doc=2865,freq=30.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28452054 = fieldWeight in 2865, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=2865)
0.25 = coord(1/4)
- Content
- "Wissenschaftler an der University of Washington haben eine neue Suchmaschinen-Engine geschrieben, die Zusammenhänge und Fakten aus mehr als 500 Millionen einzelner Web-Seiten zusammentragen kann. Das Werkzeug extrahiert dabei Informationen aus Milliarden von Textzeilen, indem die grundlegenden sprachlichen Beziehungen zwischen Wörtern analysiert werden. Experten glauben, dass solche Systeme zur automatischen Informationsgewinnung eines Tages die Grundlage deutlich smarterer Suchmaschinen bilden werden, als sie heute verfügbar sind. Dazu werden die wichtigsten Datenhappen zunächst von einem Algorithmus intern begutachtet und dann intelligent kombiniert. Das Projekt US-Forscher stellt eine deutliche Ausweitung einer zuvor an der gleichen Hochschule entwickelten Technik namens TextRunner dar. Sowohl die Anzahl analysierbarer Seiten als auch die Themengebiete wurden dabei stark erweitert. "TextRunner ist deshalb so bedeutsam, weil es skaliert, ohne dass dabei ein Mensch eingreifen müsste", sagt Peter Norvig, Forschungsdirektor bei Google. Der Internet-Konzern spendete dem Projekt die riesige Datenbank aus einzelnen Web-Seiten, die TextRunner analysiert. "Das System kann Millionen von Beziehungen erkennen und erlernen - und zwar nicht nur jede einzeln. Einen Betreuer braucht die Software nicht, die Informationen werden selbständig ermittelt." Damit unterscheidet sich der Ansatz von anderen semantischen Systemen, die die Hilfe ihrer Programmierer benötigen. Um beispielsweise aus Millionen von Dokumenten die Namen von Personen zu ermitteln, die als Geschäftsführer arbeiten, müsste eine solche Suchmaschine erst trainiert werden - etwa, in der man ihr beibringt, dass Steve Jobs der CEO von Apple, Steve Ballmer der von Microsoft ist. Bei TextRunner sei das nun nicht mehr nötig. (Google arbeitet an ähnlichen Ideen und setzt die Technik bereits im kleineren Maßstab ein.) TextRunners Algorithmen sorgen dafür, dass nicht mehr manuell eingegriffen werden muss. Ein Nutzer kann beispielsweise "tötet Bakterien" eingeben und die Suchmaschine spuckt Seiten aus, die Fakten nennen wie "Chlor tötet Bakterien", "ultraviolettes Licht tötet Bakterien" oder "Hitze tötet Bakterien". Diese von den Forschern als Dreiergruppen bezeichneten Ergebnisse lassen sich dann in einer Vorschau begutachten, bevor man die eigentliche Website betritt.
Der Prototyp von TextRunner bietet noch eine eher karge Benutzerschnittstelle - er ist auch weniger für die Öffentlichkeit als Suchhilfe gedacht denn als Demonstrator, wie es gelingen kann, Informationen aus 500 Millionen Web-Seiten automatisch zu extrahieren. Oren Etzioni, Computerwissenschaftler und Leiter des Projekts, ist stolz auf das Ergebnis: "Was wir hier zeigen, ist die Fähigkeit einer Software, ein rudimentäres Textverständnis zu erzielen - und zwar in einem Maßstab und einer Ausdehnung, die es bislang noch nie gab." Die Fähigkeit, Inhalte und Bedeutungen schnell zu erkennen, entstammt einem Grundmodell von Wortbeziehungen in der englischen Sprache, das Etzioni und sein Team entwickelt haben. Es funktioniert bei nahezu jedem Thema. "Beispielsweise deckt das einfache Muster "Einheit 1, Verb, Einheit 2" den Satz "Edison erfand die Glühbirne" genauso ab wie "Microsoft kaufte Farecast" - und viele andere Satzmodelle auch." TextRunner nutze nun dieses Schablone, um automatisch aus Texten zu lernen, Sätze zu analysieren und solche Dreiergruppen mit hoher Genauigkeit zu erkennen. Die Software besitzt auch Elemente, um aus Anfragen in natürlicher Sprache einen Sinnzusammenhang abzuleiten. Daran arbeiten Etzioni und sein Team gerade. Findet das System dann beispielsweise eine Seite, auf der steht, dass Säugetiere Warmblüter sind und eine andere, auf der zu lesen ist, dass Hunde Säugetiere sind, kann es daraus schließen, dass Hunde vermutlich als Warmblüter herumlaufen. Der Ansatz ähnelt der Technik hinter dem semantischen Suchspezialisten Powerset, den Microsoft im vergangenen Jahr erworben hat. Kurz vor dem Aufkauf legte die Firma ein Werkzeug vor, das solche Fakten aus immerhin rund zwei Millionen Wikipedia-Seiten extrahieren konnte. TextRunner kann nun aber mit Wikipedia genauso umgehen wie mit jedem anderen Angebot, seien es nun Blog-Einträge, Produktkataloge oder Zeitungsartikel. Jon Kleinberg, IT-Forscher der Cornell University, der die University of Washington-Studie kennt, findet, dass das TextRunner-Projekt besonders bei der Skalierung einen großen Fortschritt bedeute. "Die Arbeit steht für einen wachsenden Trend hin zur Schaffung von Suchwerkzeugen, die Teilinformationen, die sie im Web finden, aktiv in einen größeren Zusammenhang bringen.""
-
Bekavac, B.: Metainformationsdienste des Internet (2004)
0.01
0.008038723 = product of:
0.03215489 = sum of:
0.03215489 = weight(_text_:und in 2936) [ClassicSimilarity], result of:
0.03215489 = score(doc=2936,freq=22.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.28425696 = fieldWeight in 2936, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=2936)
0.25 = coord(1/4)
- Abstract
- Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003)
0.01
0.007933636 = product of:
0.031734545 = sum of:
0.031734545 = weight(_text_:und in 1721) [ClassicSimilarity], result of:
0.031734545 = score(doc=1721,freq=42.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.280541 = fieldWeight in 1721, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=1721)
0.25 = coord(1/4)
- Abstract
- Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
- Content
- "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
-
Behrens, D.: Test: Datei-Newsserver (2004)
0.01
0.007933636 = product of:
0.031734545 = sum of:
0.031734545 = weight(_text_:und in 2139) [ClassicSimilarity], result of:
0.031734545 = score(doc=2139,freq=42.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.280541 = fieldWeight in 2139, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=2139)
0.25 = coord(1/4)
- Content
- "Tauschbörsen sind nur eine Möglichkeit, im Internet interessante Dateien zu finden. Es gibt auch andere Wege, zum Beispiel das Usenet. Es besteht aus mehreren tausend Newsservern weltweit, die ihren Datenbestand ständig miteinander abgleichen. Sendet ein Anwender eine Datei an einen Newsserver, steht sie nach ein paar Stunden auf allen Servern zur Verfügung. - Vorteile gegenüber Tauschbörsen - Gegenüber Tauschbörsen haben Newsserver einige Vorteile. Die Übertragungsdaten beim Download ,sind meist um einiges höher und reizen sogar DSL-Anschlüsse mit 1500 MBit/s voll aus. Bei den meisten Newsserver-Anbietern wird Anonymität groß geschrieben. Sie protokollieren nicht mit, welche Dateien Sie herunterladen. Während Sie bei Tauschbörsen wissen müssen, wonach Sie suchen, können Sie bei Newsservern im Angebot stöbern. Zu jedem Thema gibt es eine bestimmte Rubrik, Newsgroup genannt. Egal, ob Sie auf der Suche nach Bildern, verschollener Software, Filmen oder MP3-Dateien mit Musik aus den 70er und 80er Jahren sind, Sie finden für jedes Interesse ein eigenes Forum. - Der Ursprung von Datei-Newsgroups - Newsserver gibt es schon seit den Anfängen des Internets. Sie waren ursprünglich zum reinen Meinungs- und Gedankenaustausch gedacht. Irgendwann kamen Anwender auf die Idee, spezielle Newsgroups für den Austausch von Dateien einzurichten - sogenannte Binärgruppen. Je mehr solcher Gruppen es gab und je mehr Anwender sie nutzten, desto kostspieliger wurde die Angelegenheit für die Betreiber der Newsserver. Sie mussten nicht nur in zusätzliche Speicherkapazität für die Megabyte-schweren Nachrichten investieren, sondern auch den erhöhten Datenverkehr bezahlen, der durch ihre Leitungen fließt. Viele InternetProvider bieten daher heute keine Binärgruppen mehr auf ihren Servern an. T-Online, AOL und viele weitere Internet-Provider stellen für ihre Kunden Newsserver bereit, die lediglich Text-Newsgroups führen. Auch das Newsgroup-Archiv von Google (http://groups.google.de) bietet keinen Zugriff auf Binärinhalte.
- Zugriff auf Datei-Newsgroups - Diese Lücke füllen Anbieter, die auf BinärNewsgroups spezialisiert sind. Sie haben in leistungsfähige Hardware und eine schnelle Internet Anbindung investiert und bieten gegen Gebühr Zugang zu den Terabytes an Daten. In aller Regel bezahlen Sie einen Monatsbeitrag, der sich um 10 Euro herum bewegt. Was Sie dafür erwarten können, unterscheidet sich zum Teil erheblich von Dienst zu Dienst. Beim einen Anbieter können Sie unbeschränkt Daten herunterladen, müssen aber in Kauf nehmen, dass jede Nachricht beziehungsweise Datei nach drei Tagen vom Server verschwunden und durch neue Daten ersetzt ist. Wer nichts verpassen will, muss also ständig ein Auge auf neue Inhalte haben. Andere Anbieter halten jede Datei mehr als 20 Tage vor und bieten nützliche Zusatzfunktionen, beschränken Ihre Download-Menge aber auf 6 bis 20 GB pro Monat. - Sieben Anbieter im Test - Wir haben sieben interessante Angebote getestet. Auswahlkriterium war zum einen der Preis: Mehr als 13 Euro im Monat sollte ein Newsserver-Zugang nicht kosten. Zum anderen haben wir Anbieter bevorzugt, bei denen man per Bankeinzug bezahlen kann und nicht nur per Kreditkarte. Wir bewerten die Download-Geschwindigkeit, die Vorhaltezeit der Nachrichten und die Anzahl der angebotenen Newsgroups. Zudem berücksichtigen wir bei der Bewertung Zusatzfunktionen, die ein Dienst bietet. Normalerweise benötigen Sie ein Newsreader-Programm, um auf Newsserver zuzugreifen. Ein großer Pluspunkt ist es, wenn ein Anbieter auch per WebBrowser Zugang auf die Datei-Schätze der Newsgroups bietet. Die Web-Schnittstellen verfügen meist über Komfortfunktionen, die die Bedienung erleichtern. Genauere Infos zum Testverfahren gibt's im Kasten "Wie wir testen" auf Seite 148. - Diese Newsreader sind empfehlenswert - Für Datei-Newsgroups gibt es speziell angepasste Newsreader. Wir empfehlen Newsbin Pro 4.2 für Windows 98/ME, 2000 und XP Mit der englischsprachigen Shareware lassen sich mehrere Dateien gleichzeitig von einem Server herunterladen - eine überaus wichtige Funktion bei Newsservern, die die Bandbreite pro Verbindung beschränken: In dem Fall können Sie nur durch parallele Downloads die Kapazität eines DSL-Anschlusses ausnutzen. Newsbin Pro lässt sich 10 Tagelang testen und kostet 35 Dollar (auf OHeft-CD und unter www.newsbin.com, 1,6 MB). Eine Freeware-Alternative ist Xnews 5.04.25 für Windows 98/ME, NT 4, 2000 und XP. Das englischsprachige Tool ist weniger komfortabel und etwas komplizierter zu bedienen. Es unterstützt maximal vier Downloads gleichzeitig. Hier eine kleine Hilfestellung zu Xnews: Dateien, die Sie herunterladen möchten, markieren Sie mit der Leertaste. Den Download-Vorgang starten Sie mit "Article, Decode" oder der Taste <F4>. Xnews finden Sie unter http:// xnews.newsguy.com (697 KB). Eine deutschsprachige Hilfe-Datei können Sie unter http://xnews.newsguy.com/xnews-de.chm (113 KB) herunterladen.
- Finden, was Sie suchen - Normalerweise können Sie im Usenet nur jede Newsgroup einzeln durchsuchen. Lediglich zwei Dienste im Test bieten eine globale Suchfunktion über alle Newsgroups hinweg: Easynews.com und Newshosting. Sie ist in der jeweiligen Web-Oberfläche integriert. Ein Klick auf einen Eintrag in der Ergebnisliste startet den Download. Komfortabler geht's kaum. Eine Hand voll kostenloser Anbieter indizieren Datei-Newsgroups und bieten ein Suchformular, etwa www.bincrawiercom, www. newzsearch.com und http://altbinaries.ni. Um eine gefundene Datei herunterzuladen, Müssen Sie im Anschluss Ihren Newsreader starten und in die angegebene Newsgroup wechseln. Bincrawler.com wurde im Oktober von einem anderen Anbieter aufgekauft. Ob er den kostenlosen Dienst weiterführen wird, ist ungewiss. - So vermeiden Sie illegale Inhalte - In Foren, in die jeder Anwender nach Belieben Dateien hineinstellen kann, landet auch viel Schmutz. In manchen Newsgroups finden sich etwa Software-Raubkopien und strafrechtlich relevante Bilder. Um nicht damit konfrontiert zu werden, sollten Sie Newsgroups mit eindeutig klingenden Namen meiden. Außerdem sind die angebotenen Dateien häufig mit Viren verseucht. Auch in Newsgroups mit harmloser Bezeichnung stoßen Sie möglicherweise auf urheberrechtlich geschütztes Material. Laden Sie deshalb nur Dateien herunter, von denen Sie sicher sind, dass sie legal angeboten werden. Vor allem urheberrechtlich geschützte MP3-Dateien sollten Sie meiden, da Sie sonst mit ernsten Konsequenzen rechnen müssen (> Beitrag auf Seite 22)."
-
Weckend, E.: Alles im Fluß : Möglichkeiten in der Internet-veränderten Informationslandschaft (1996)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 3502) [ClassicSimilarity], result of:
0.03133918 = score(doc=3502,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 3502, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=3502)
0.25 = coord(1/4)
- Abstract
- In verschiedenen Beiträgen wurde in dieser Zeitschrift bereits aufgezeigt, daß Patentinformation als mehrdimensionale Basisinformation in juristischen, technischen und wirtschaftsorientierten Tätigkeitsfeldern zu gelten hat und insbesondere auch für Fragen im Wirtschaftsbereich eine hervorragende Ergänzung darstellt. Durch das Erscheinen des Internet sind auch solche traditionellen Informationsbereiche in heftige Bewegung geraten. Zeitgemäßes Informationsverhalten wird zum intelligenten Informationsmanagement durch Nutzung aller verfügbaren Informationsressourcen
-
Voll vergoogelt : Belgien gelöscht (2006)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 5404) [ClassicSimilarity], result of:
0.03133918 = score(doc=5404,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 5404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=5404)
0.25 = coord(1/4)
- Abstract
- Nachdem belgische Zeitungen wie "Le Soir" und "La Libre Belgique" vor Gericht erkämpften, dass Google deren Nachrichten nicht mehr in seine News packt, entfernte der Suchmaschinen-Gigant einfach alle Verweise auf die Zeitungen. Wer nun nach "Le Soir" sucht, wird zumindest bei Google nicht mehr fündig. Damit zeigt der Konzern, wer der wahre Herr im Web ist. Denn die wirtschaftlichen Schäden für die Zeitungen dürften wegen abspringender Werbekunden nicht unerheblich sein. Der Gewinner steht also fest: Er heißt Google - und verliert schon lange nicht mehr.
-
Zurawski, A.: Fit fürs Netz : alles über Suchmaschinen (1997)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 7624) [ClassicSimilarity], result of:
0.03133918 = score(doc=7624,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 7624, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=7624)
0.25 = coord(1/4)
- Abstract
- Neben Web-Browsern sind Suchmaschinen die wichtigsten Tools fürs Internet. Ohne sie würden Anbieter von Daten und Surfer oft nur durch Zufall oder Glück zueinander finden. CHIP stellt im zweiten Teil der neuen Serie die 7 wichtigsten Suchdienste (AltaVista, Yahoo, Lycos, Kitty (Flipper), WebCrawler, Web.De, Excite) vor und zeigt, mit welchen Tricks Sie schneller auf der gesuchten Web-Seite landen
-
Altmann, O.; Pöhl, S.: Information Retrieval im Internet : bekannte Suchdienste und ihre Eigenschaften (1997)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 205) [ClassicSimilarity], result of:
0.03133918 = score(doc=205,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 205, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=205)
0.25 = coord(1/4)
- Abstract
- Wie einige wichtige Suchmaschinen arbeiten und wie der Benutzer die Suche effektivieren kann, ist für den Erfolg nicht unerheblich. Wenn darüber hinaus auch die Suchwerkzeuge für bestimmte Arten von Protokollen bekannt sind sowie solche für bestimmte Regionen, hat der Suchende gute Aussichten auf reiche Ausbeute