-
Sander-Beuermann, W.; Anders, S.A.: "Besser den Marktführer meiden" : Experte warnt vor Datenhunger im Netz (2009)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 2873) [ClassicSimilarity], result of:
0.03133918 = score(doc=2873,freq=16.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 2873, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2873)
0.25 = coord(1/4)
- Content
- "Herr Sander-Beuermann, welche Suchmaschine nutzen Sie? MetaGer natürlich, weil ich weiß, was dahinter steckt und ich ihr voll vertrauen kann. Und weil ich immer das finde, was ich suche. .und weil Sie MetaGer an der Uni Hannover selbst entwickelt haben. Ja, deshalb weiß ich ja auch, was bei einer Suchabfrage im Hintergrund passiert. Bei anderen Suchmaschinen wissen die User das meist nicht. Jede Suchmaschine kann Nutzungsdaten protokollieren, und die großen werden das sicher auch tun. Es ist völlig offen, was dann mit diesen Daten passiert. Bei Benutzerzahlen von mehreren hundert Millionen in Kombination mit Erkenntnissen aus weiteren Online-Diensten können Informationen aus dem Surfverhalten gezogen werden, an die man sonst nie kommen würde. Etwa für Marktanalysen oder die Erhebung von Kaufverhalten. Was kann Google über mich persönlich erfahren? Informationen über einzelne Personen kann Google nur gewinnen, wenn sie neben der Suchmaschine auch andere Google-Tools nutzen, bei denen sie sich persönlich anmelden. Etwa Google Mail oder die Desktop-Werkzeuge von Google. Diese Informationen könnte Google kombinieren und daraus seine Schlüsse ziehen. Ist Bing eine Alternative? Durchaus. Die Qualität ist konkurrenzfähig, und es gibt bei Microsoft nicht die Fülle weiterer Dienste wie bei Google. Wenn aber das Windows-Betriebssystem die IP-Adresse an Microsoft übermitteln würde, wäre das enorm gefährlich. Diese Verbindung besteht aber meines Wissens nicht. Wie kann man also das Internet durchsuchen, ohne selbst durchsucht zu werden? Am besten sollten User sowohl beim Betriebssystem als auch bei den Suchmaschinen nicht den Marktführer benutzen. Und natürlich empfehle ich Suchmaschinen, die IP-Adressen nicht mitschreiben, wie zum Beispiel unser MetaGer oder auch Ixquick oder Scroogle. Die liefern gute Ergebnisse und sind im Hinblick auf den Datenschutz die bessere Alternative."
-
Burghardt, M.; Heckner, M.; Wolff, C.: Social Search (2011)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 342) [ClassicSimilarity], result of:
0.03133918 = score(doc=342,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 342, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=342)
0.25 = coord(1/4)
- Abstract
- Social Search beschreibt die Einbeziehung des sozialen Kontexts in den Prozess der Informationssuche. Der folgende Beitrag zeigt die Entwicklung sozialer Suche auf und systematisiert den Bereich von Social Search Engines im WWW durch eine grundlegende Unterscheidung verschiedener Social-SearchKonzepte. Durch die Beschreibung typischer Merkmale bestehender Social-Search-Implementierungen werden diese überschau- und vergleichbar gemacht.
-
Lewandowski, D.: Query understanding (2011)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 344) [ClassicSimilarity], result of:
0.03133918 = score(doc=344,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 344, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=344)
0.25 = coord(1/4)
- Abstract
- In diesem Kapitel wird beschrieben, wie Suchmaschinen Suchanfragen interpretieren können, um letztendlich den Nutzern besser auf ihren Kontext zugeschnittene Ergebnisse liefern zu können. Nach einer Diskussion der Notwendigkeit und der Einsatzmöglichkeiten des Query Understanding wird aufgezeigt, auf welcher Datenbasis und an welchen Ansatzpunkten Suchanfragen interpretiert werden können. Dann erfolgt eine Erläuterung der Interpretationsmöglichkeiten anhand der Suchanfragen-Facetten von Calderon-Benavides et al. (2010), welcher sich eine Diskussion der Verfahren zur Ermittlung der Facetten anschließt.
-
Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 1160) [ClassicSimilarity], result of:
0.03133918 = score(doc=1160,freq=16.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 1160, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1160)
0.25 = coord(1/4)
- Abstract
- Plötzlich diese Übersicht. Milliarden von Seiten, in Sekundenbruchteilen durchsucht, als Trefferliste sauber angezeigt, mit der größten Selbstverständlichkeit sortiert nach Rang und Namen. Google bestimmt die Routinen des Alltags und ist dennoch nicht die Suchmaschine schlechthin. Auch außerhalb des World Wide Web gibt es zahllose, technisch hochgerüstete Prozeduren des Suchens. Die gegenwärtige Selbstverständlichkeit der einen Suchmaschine läßt leicht übersehen, daß Suchmaschinen einen Interessenkonflikt induzieren zwischen jenen, die sie einsetzen wollen, und jenen, auf die sie angesetzt werden. Ihr prekärer Status im Spannungsfeld zwischen Übersicht und Überwachung wird verdrängt. Anhand von vier Fallstudien zeigt David Gugerli die Entwicklung der Suchmaschine auf, von den frühen Fernseh-Ratespielen, von Robert Lembkes Unterhaltungsshow »Was bin ich?«, über Eduard Zimmermanns Fahndungssendung »Aktenzeichen XY« und Horst Herolds »Kybernetik der Polizei« bis zu der von Ted Codd ausgehenden Entwicklung der relationalen Datenbank. Während Lembke auf die Feststellung von Normalität ausgerichtet war, suchte Zimmermann die Devianz, Herold die Muster und Codd die allgemeingültige Such- und Abfragesprache für in Form gebrachte Wissensbestände, die man seit Mitte der sechziger Jahre Datenbanken nennt. »Die Geschichte der Suchmaschine ist eine eminent politische. Mit Suchmaschinen lassen sich Hoffnungen auf Fundamentaldemokratisierung und informationelle Emanzipation ebenso verbinden wie Horrorvisionen eines Orwellschen Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt.«
-
Ulbrich, D.: Suchmaschinenoptimierung für öffentliche Bibliotheken am Beispiel von Google (2016)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 3180) [ClassicSimilarity], result of:
0.03133918 = score(doc=3180,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 3180, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=3180)
0.25 = coord(1/4)
- Abstract
- Dieser Artikel befasst sich mit der Beudeutung von Suchmaschinenoptimierung für öffentliche Bibliotheken. Für ein besseres Verständnis der Optimierungen wird die grundlegende Vorgehensweise von Suchmaschinen erläutert und ein Einblick in den Aufbau von Websitemodellen gegeben. Es wird gezeigt werden, dass die Ziele einer Suchmaschinenoptimierung weitreichender sind, als nur in der Google Trefferliste auf Platz eins zu stehen und dass die Verwirklichung dieser Ziele einer umfassenden Planung bedart. Abschließend werden die praktischen Maßnahmen für die Optimierung der Website dargestellt.
-
Leisinger, C.: Sobald die Konkurrenten eine faire Chance haben, wird Google auf einen Schlag 20 Prozent seines Marktanteils verlieren (2020)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 44) [ClassicSimilarity], result of:
0.03133918 = score(doc=44,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 44, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=44)
0.25 = coord(1/4)
- Abstract
- Gabriel Weinberg macht Google und Co. mit seiner Suchmaschine DuckDuckGo immer mehr Konkurrenz. Im Gespräch erklärt er, wieso er auf den diskreten Umgang mit persönlichen Daten so viel Wert legt und warum er vehement für regulatorische Eingriffe ist.
-
Haring, M.; Rudaev, A.; Lewandowski, D.: Google & Co. : wie die "Search Studies" an der HAW Hamburg unserem Nutzungsverhalten auf den Zahn fühlen: Blickpunkt angewandte Forschung (2022)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 630) [ClassicSimilarity], result of:
0.03133918 = score(doc=630,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 630, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=630)
0.25 = coord(1/4)
- Abstract
- Die Forschungsgruppe Search Studies forscht an der HAW Hamburg zur Nutzung kommerzieller Suchmaschinen, zur Suchmaschinenoptimierung und zum Relevance Assessment von Suchmaschinen. Der Leiter der Forschungsgruppe, Prof. Dr. Dirk Lewandowski, stand für ein Interview zu seiner Tätigkeit und der seines Teams, sowie seiner Lehre an der HAW Hamburg zur Verfügung. Sollten wir Informationen aus dem Internet vertrauen oder ist Vorsicht angebracht?
-
Hentschel, A.; Schmidt, M.: Google: erste Krise (2008)
0.01
0.007773345 = product of:
0.03109338 = sum of:
0.03109338 = weight(_text_:und in 1812) [ClassicSimilarity], result of:
0.03109338 = score(doc=1812,freq=28.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27487293 = fieldWeight in 1812, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=1812)
0.25 = coord(1/4)
- Abstract
- Die Nummer eins der Suchmaschinen strauchelt. Die Erfolgsstory von Web 2.0 und Social Networks bereitet Google Probleme. Der Gigant sieht seine Nutzer nicht mehr
- Content
- "Am 7. September feiert die Google-Seite ihren zehnten Geburtstag. Die Bilanz dieser Dekade ist durchaus überwältigend. Gerade bescheinigte das Marktforschungs-Unternehmen comScore Google einen Anteil von 61,6 Prozent am weltweiten Suchmaschinen-Markt. Der Gigant aus Mountain View machte letztes Jahr 16,5 Milliarden US-Dollar Umsatz und erwirtschaftete 4,2 Milliarden US-Dollar Gewinn - gegenüber 2006 ein Plus von bemerkenswerten 30 Prozent. Viele Gründe zum Feiern. Eigentlich. Doch die Stimmung beim weltgrößten Suchmaschinen-Betreiber ist getrübt. Die gleichen Marktforscher sagen Google nämlich ein Ende der glorreichen Zeiten voraus. Die Gründe: Die User verstecken sich vor Google, klicken seltener auf Werbebanner und achten stärker denn je auf ihre Privatsphäre im Internet. In den USA schrumpfte das Anzeigengeschäft allein von Dezember 2007 bis Januar 2008 um sieben Prozent. Der Aktienkurs der Suchmaschine brach ob dieser Zurückhaltung ein, seit letztem November verlor Google 40 Prozent seines Börsenwertes - immerhin 80 Milliarden US-Dollar. Das rückläufige Geschäft verdeutlicht ein gravierendes Problem. Es wird für Google immer schwerer, Werbung dort einzublenden, wo die Webnutzer sind. Die Platzierung funktioniert vereinfacht so: Um seinen Webseitenindex aktuell zu halten, schickt Google Crawler durch das Web. Sie erfassen für das Indizierungs-Programm Google-bot die Inhalte der Webseiten - anhand häufig auftauchender Begriffe sowie von Content- und Title-Tags. So weiß Google, auf welchen Seiten welche Inhalte stehen und kann passende Werbung schalten. In Zeiten dröger HTML-Seiten war das mehr als ausreichend. Doch das Web hat sich schneller geändert als Google seinen Googlebot. Der nämlich kann nicht alle Seitenformate erfassen. Die Inhalte von Flash-Dateien und dynamischen Webseiten etwa bleiben außen vor, zielgenaue Werbung lässt sich hier nicht schalten. Dummerweise boomen ausgerechnet diese Formate im populären "Web 2.0". Eigentlich ein rein technisches Problem, für das die Suchmaschine noch keine Lösung hat.
Doch auch mit den Menschen im Internet hadert Google. Schon vergangenes Jahr bettelte Google-Chef Eric Schmidt bei den Nutzern um die Preisgabe persönlicher Informationen: "Wir können nicht einmal die einfachsten Fragen beantworten, weil wir zu wenig über euch wissen" Dass es Probleme geben könnte, wusste Google freilich schon länger. Wie verzweifelt die Führungsriege tatsächlich ist, zeigen die 900 Millionen Dollar, mit denen sich die Suchmaschine im Sommer 2006 in die Web-Community MySpace einkaufte. Der Deal klingt eigentlich absurd - schließlich zahlte der Branchen-Primus das Geld, damit er seinen Such-Service anbieten kann. Natürlich ist das nur die halbe Geschichte. ,Wir halten es für wichtig, dass wir Google dorthin bringen, wo die User sind, und die wenden sich immer stärker Seiten mit selbst geschaffenen Inhalten zu", sagte seinerzeit Eric Schmidt. Doch die User verstecken sich, schalten ihre Profile auf den Status "Privat" und sind damit weiterhin unsichtbar und wertlos für Google. Und so geht es der Suchmaschine in nahezu jedem Social Network: Weltweit etwa 300 Millionen Nutzer solcher Netzwerke bekommt Google nicht zu Gesicht. Xing, facebook oder studiVZ sind beliebt bei den Surfern - und für Google unerreichbar. Doch ausgerechnet im Sammeln der dort preisgegebenen Daten sieht Google mittlerweile seine Existenzgrundlage. Der scheinbare Ausweg aus dem Dilemma heißt OpenSocial. Das ist eine Sammlung standardisierter Programmierschnittstellen (APIs) für webbasierte soziale Netzwerke. Mithilfe solcher APIs lassen sich Widgets programmieren - oder aber auch die in Datenbanken versteckten Nutzerprofile auslesen. Joe Kraus, bei Google verantwortlich für OpenSocial, nannte es einmal ganz unverhohlen "eine fantastische Monetarisierungsplattform". Auf Deutsch: ein Goldesel. Spürhund: Auf der verzweifelten Suche nach den Userdaten Fraglich ist allerdings, ob die Nutzer Google an ihre Daten lassen. Drei Viertel aller Surfer rebellieren ja bereits, wenn Google nur über die an sich relativ nutzlose IP-Adresse auf frühere Suchen der Personen schließt, fand der Autor Gerald Reischl für sein gerade erschienenes Buch "Die Google-Falle" heraus. Wie solch ein Protest praktisch aussieht, erfuhren die Betreiber des Studenten-Netzwerkes studiVZ Ende letzten Jahres: Reichlich unbedarft verkündeten sie ihren Nutzern, deren persönliche Daten zukünftig auch für Werbezwecke einzusetzen. Die Community machte das, was man eigentlich auch von ihr erwarten durfte: Sie organisierte sich gegen den befürchteten Ausverkauf und zwang studiVZ schließlich, den fraglichen Passus aus den Geschäftsbedingungen zu streichen. Selbst die Netzwerke, die OpenSocial unterstützen, halten nichts davon, dass sich Google über die Nutzerprofile hermacht, um seine Werbeeinnahmen zu steigern. Zumindest nicht die deutschen: "Es ist nicht in unserem Sinne, dass es bei der Nutzung von auf OpenSocial basierten Widgets zu einem Datenaustausch mit Google oder Dritten kommt", sagt Daniela Hinrichs, Pressesprecherin des Business-Netzwerkes Xing. "Das wäre aufgrund der strengenDatenschutzbestimmungen und unserer AGB überhaupt nicht zulässig - und es ist auch nicht gewollt.""
-
Hentschel, A.; Schmidt, M.; Mattos, N.: "Google ist nie fertig!" : [Interview] (2008)
0.01
0.007773345 = product of:
0.03109338 = sum of:
0.03109338 = weight(_text_:und in 1933) [ClassicSimilarity], result of:
0.03109338 = score(doc=1933,freq=28.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27487293 = fieldWeight in 1933, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=1933)
0.25 = coord(1/4)
- Abstract
- Nelson Mattos, Entwicklungschef von Google Europa, spricht im CHIP-INTERVIEW über Erfolg, darüber, wie die zukünftige Websuche aussieht - und was Badewannen im Büro verloren haben
- Content
- "Herr Mattos, warum arbeiten Sie eigentlich bei Google? Weil es ein interessanter Job ist. Die Firma ist innovativ, hier werden Technologien für das Internet entwickelt, das ist die IT-Zukunft. Verglichen mit traditionellen Unternehmen herrscht hier eine ganz andere Kultur: Wir konzentrieren uns auf neue Ideen und denken erst später daran, wie man damit Geld verdienen kann. Was war die letzte echte Innovation von Google? Google Mail? Ich bitte Sie: Google Sky, android, opensocial - all das haben wir vor Kurzem auf den Markt gebracht. Es gibt auch viele kleine Dinge, an denen wir ständig entwickeln. Zum Beispiel maschinelle Übersetzungen: Es wird in Zukunft möglich sein, in Echtzeit mit einem Menschen zu kommunizieren, der eine andere Sprache spricht. Das ist sehr innovativ. android ist noch nicht auf dem Markt. Warum sprengt das Betriebssystem für mobile Geräte die übliche Google-Entwicklungszeit von zwei Quartalen? android ist mehr als ein einziges Produkt, es ist eine offene Plattform. An deren Entwicklung sind viele Firmen beteiligt: Google baut die Plattform, andere schreiben die Anwendungen, wieder andere bauen Geräte. Das ist der Grund dafür, dass Android nicht innerhalb einiger weniger Monate fertig wird. Sind Innovationen ohne Partner überhaupt noch möglich? Google setzt auf offene Standards, denn ein Grund für den Erfolg des Unternehmens ist die offene Umgebung des Internets. Diese Transparenz ist ein Erfolgsfaktor für das zukünftige Web und seine Erweiterungen. Wer offen sein will, braucht Partner.
Die Google-Labs bieten viel Zerstreuung: Billardtische, Schaumstoffbadewannen, Kickertische. Was hält Sie da noch im Büro? Ich muss nicht im Büro arbeiten. Ich kann mit meinem Laptop irgendwo hingehen - das Lab ist wireless vernetzt. Mein Lieblingsplatz ist die Bibliothek. Dort gibt es einen Kamin und eine Couch, da kann ich gut arbeiten. Ich verbiete niemandem, in der Badewanne zu liegen. Aber der lockere Eindruck täuscht manchmal: Alle Mitarbeiter definieren Pläne und es wird erwartet, dass sie die Ziele erfüllen. Natürlich arbeiten wir bei Google sehr frei, aber die Quartalsziele sind hart. Das spürt man kurz vor den Deadlines, wenn viele Leute besonders konzentriert arbeiten. Über Google steht das Motto "Don't be evil" - sei nicht böse. Werden Ideen verworfen, weil sie diesem Motto nicht entsprechen? Wir verwerfen Ideen, die - wie wir das nennen - nicht "googeley" sind. Es gibt ein intern oft genanntes Beispiel: Ein Ingenieur hat unseren Firmengründern Larry Page und Sergej Brin einmal eine Idee präsentiert, mit der Google viel Geld hätte verdienen können. Larry und Sergej stellten aber die Frage: "Was ist der Vorteil für den Nutzer?" Darauf hatte der Ingenieur keine Antwort - und damit war das Thema vom Tisch. Wenn der Mehrwert für den Nutzer nicht klar ist, wird ein Projekt nicht gemacht. Warum, glauben Sie, hat Microsoft Live Search so wenig Erfolg? Die Suchergebnisse sind nicht immer gut. Wer eine Anfrage stellt, möchte relevante Ergebnisse.
Die liefert Google auch nicht immer - und da setzen Suchkonzepte wie wikia Search an. Wird das eine ernst zu nehmende Konkurrenz? Wenn Google-Nutzer nicht auf die angezeigten Treffer klicken, sind sie offenbar nicht zufrieden mit unseren Ergebnissen. So sehen auch wir, ob Treffer relevant sind oder nicht. Natürlich arbeiten wir permanent an der Verbesserung der Suche. Wir sagen nicht "Das Produkt ist fertig" und legen die Hände in den Schoß. Auf eine Suchanfrage bekommen Sie heute Tausende Treffer. Besser wäre doch nur ein Ergebnis - nämlich das beste und das relevanteste. Welche fünf Dinge muss eine Suchmaschine in fünf Jahren können? Sie wird verschiedene Dateitypen anzeigen - Bilder, Texte, Dokumente. Zweitens: Statt etwas einzutippen fragen Sie mit der Stimme -und zwar, das ist der dritte Punkt, in jeder beliebigen Sprache. Viertens: Cloud-Computing wird wichtiger. Sie können jederzeit auf Ihre Mails zugreifen, auf den Kalender oder die Kontakte in Ihrem Handy. Und als Letztes: die mobile Suche. Wo wird Google in fünf Jahren stehen? Auf Augenhöhe mit Microsoft oder so vergessen wie Netscape? So denken wir nicht. Wir denken nicht darüber nach, ob wir morgen größer oder besser sind als Microsoft. Ich denke an die Nutzer. Ich denke darüber nach, wie man Informationen zu den Leuten in der ganzen Welt bringt. Das ist, was mich motiviert - und nicht nur mich, sondern auch die meisten Google-Mitarbeiter: etwas in die Welt einzubringen."
-
Weigert, M.: Horizobu: Webrecherche statt Websuche (2011)
0.01
0.007773345 = product of:
0.03109338 = sum of:
0.03109338 = weight(_text_:und in 4443) [ClassicSimilarity], result of:
0.03109338 = score(doc=4443,freq=28.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27487293 = fieldWeight in 4443, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=4443)
0.25 = coord(1/4)
- Abstract
- In einem Artikel bei Netzwertig.com (horizobu: Erkunden statt suchen) bin ich auf eine neue Suchmaschine aus der Schweiz gestoßen: horizobu. Und ich muss gestehen, ich bin beeindruckt. horizobu macht Spaß und bietet etwas, was anderen Suchmaschinen fehlt.
- Content
- "Das Problem mit der Suchmaschinen-Optimierung Suchmaschinen sind unser Instrument, um mit der Informationsflut im Internet klar zu kommen. Wie ich in meinem Artikel Die kürzeste Anleitung zur Suchmaschinenoptimierung aller Zeiten ausgeführt habe, gibt es dabei leider das Problem, dass der Platzhirsch Google nicht wirklich die besten Suchresultate liefert: Habt ihr schon mal nach einem Hotel, einem Restaurant oder einer anderen Location gesucht - und die ersten vier Ergebnis-Seiten sind voller Location-Aggregatoren? Wenn ich ganz spezifisch nach einem Hotel soundso in der Soundso-Strasse suche, dann finde ich, das relevanteste Ergebnis ist die Webseite dieses Hotels. Das gehört auf Seite 1 an Platz 1. Dort aber finden sich nur die Webseiten, die ganz besonders dolle suchmaschinenoptimiert sind. Wobei Google Webseiten als am suchmaschinenoptimiertesten einstuft, wenn möglichst viele Links darauf zeigen und der Inhalt relevant sein soll. Die Industrie der Suchmaschinen-Optimierer erreicht dies dadurch, dass sie folgende Dinge machen: - sie lassen Programme und Praktikanten im Web rumschwirren, die sich überall mit hirnlosen Kommentaren verewigen (Hauptsache, die sind verlinkt und zeigen auf ihre zu pushende Webseite) - sie erschaffen geistlose Blogs, in denen hirnlose Texte stehen (Hauptsache, die Keyword-Dichte stimmt) - diese Texte lassen sie durch Schüler und Praktikanten oder gleich durch Software schreiben - Dann kommt es anscheinend noch auf Keywords im Titel, in der URL etc. an.
All das führt zu folgenden negativen Begleiterscheinungen: - die meisten Kommentare heutzutage kriegt man nur noch des Links wegen: der eigentliche Sinn ist gleich Null - es gibt mittlerweile haufenweise Inhalte und ganze Blogs im Web, deren Ziel nur ist, von Google-Bots auf ihre Keyword-Dichte geprüft zu werden - aus meiner Sicht funktionieren SEO-Optimierungs-Unternehmen wie Schneeballsysteme: oben wird durch die Geschäftsführer Kohle gescheffelt, unten wird von den Praktikanten für wenig Geld sinnlos geschuftet. Aus meiner Sicht trägt Google zu diesen negativen Folgen sehr viel bei. Google legt nicht offen, sie sein Suchalgorithmus funktioniert - und es fördert damit diese Überflutung des Webs mit sinnlosen Kommentaren und Inhalten. Wie Du langsam aber sicher merkst, bin ich nicht der allergrößte Fan von Google (ich hoffe, die lesen das nicht - in Deutschland erfolgen mehr als 95% aller Suchen mit Google und ich will ja, dass der Denkpass weiterhin gut und leicht gefunden wird). horizobu - Nicht suchen, sondern recherchieren Nun ist horizobu nicht wirklich anders, zumindest in dieser Hinsicht. Aber es ist anders darin, wie es mit Suchergebnissen umgeht. Wenn Du etwas suchst, erscheinen sechs möglichst relevante Ergebnisse in einem großen Rahmen. Falls Dir diese Ergebnisse nicht zusagen, kannst Du sie einzeln (durch Klick auf das Kreuz an jedem Ergebnis) oder mehrere oder alle (durch Klick auf More) austauschen und durch die nächsten Ergebnisse ersetzen lassen. An jedem der sechs Ergebnisse gibt es auch eine Nadel zum Fixieren - dann kannst Du die anderen austauschen und dieses Ergebnis bleibt.
-
ibc: Resultate im Tableau : Suchmaschine ordnet Ergebnisse grafisch (2001)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 5959) [ClassicSimilarity], result of:
0.030969746 = score(doc=5959,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 5959, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5959)
0.25 = coord(1/4)
- Abstract
- Wer per Suchmaschine im Internet nach einem bestimmten Begriff forscht, hat unter Umständen anschließend zwar jede Menge Dokumente gefunden - aber dabei die Übersicht verloren. Ist der Suchbegriff gar noch relativ allgemein, kommen meist Hunderte von Ergebnisseiten zusammen, viele davon auch mehrfach aufgeführt. Forscher an der University of Illinois in Champaign haben jetzt eine Software entwickelt, die das Auswerten von Suchmaschinen-Ergebnissen erleichtern soll. VisIT heißt das Programm, das die gefundenen Internetadressen nicht als Liste darstellt, sondern als Grafik. Farbige Rechtecke symbolisieren die einzelnen Seiten, und durch Pfeile werden inhaltliche Zusammenhänge verdeutlicht; so werden besonders relevante Ergebnisse besser erkennbar. Geht der Nutzer mit dem Mauszeiger auf eine Adresse, erhält er in einem sich öffnenden Fenster kurze Informationen zum Inhalt der Seite. Innerhalb der Grafik kann er dann die einzelnen Ergebnisse nach Wichtigkeit anordnen und markieren. Komfortabel ist VisIT auch dadurch, dass mehrere Suchmaschinen gleichzeitig nach einem bestimmten Begriff durchforstet werden und nicht, wie meist üblich, nacheinander. Außerdem sortiert das Programm identische Ergebnisse aus. Das lästige Blättern in einer langen Liste entfällt, da alle gefundenen Adressen auf einen Blick zu sehen sind und dort direkt per Mausklick angewählt werden können. Unter der Adresse http://www.visit.uiuc.edu lässt sich die Beta-Version der Software kostenlos herunterladen. Sie funktioniert zur Zeit nur unter Windows, aber Linux- und Mac-Versionen sind in Vorbereitung
-
Palm, G.: ¬Der Zeitgeist in der Suchmaschine : Unser alltäglicher "Google-Hupf" und seine Spuren (2002)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 1226) [ClassicSimilarity], result of:
0.030969746 = score(doc=1226,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 1226, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1226)
0.25 = coord(1/4)
- Abstract
- Zeitmaschinen gibt es schon länger, spätestens seit H. G. Wells, aber eine Zeitgeistmaschine existiert erst seit 1998: Google. Trend-Gurus und ihre Trend-Büros gehören demnächst der Vergangenheit an. Eine weitere Ironie des Netzes, das heute bereits verabschiedet, was doch für morgen bestimmt war. Google macht die ohnehin so anfechtbare Zunft der Seher tendenziell arbeitslos, weil die Suchmaschine der Suchmaschinen sich nicht auf Nostradamus oder Horoskop, Kassandra oder Kaffeesatz, sondern auf Suchanfragen verlässt. Was die Welt umtreibt, was mega-in oder mega-out ist, bildet sich in Googles Zeitgeistfeature ab. Das komplexe Wunder von Google ist der Vokal "o", der bekanntlich erstaunlich dehnbar ist, wenn die Welt auf der Suche nach sich selbst ist. Google führt sich auf ein Wortspiel mit dem mathematischen Begriff "googol" zurück, eine 1 mit 100 Nullen. Rechnet man Googles Partnerschaften mit Yahoo und anderen dazu, wird pro Tag ca. 150 Millionen mal gegoogelt - Tendenz selbstverständlich steigend. Nach Google-Mitgründer Larry Page besteht der Anspruch der perfekten Suchmaschine darin, dass sie genau versteht, was der Suchende will und ihn exakt bedient. Doch das ist nur die längst nicht erreichte Sonnenseite der blitzschnell generierten Suchantworten der digitalen Wissensgesellschaft. Die vielen Fragen der Wissbegierigen sind selbst Antworten - Antworten auf die Frage nach den Interessen, Wünschen und Begierden der Netzgesellschaft.
-
Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 3221) [ClassicSimilarity], result of:
0.030969746 = score(doc=3221,freq=40.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 3221, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=3221)
0.25 = coord(1/4)
- Content
- Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen"
Als Ergebnisse erwartet er Seiten mit Anleitungen, Tipps, Know-how, Forenbeiträgen oder auch Produktinfos. Bei der Lösung dieses Problems liefert Google einen Volltreffer: Die ersten zehn Ergebnisse antworten genau auf das, was der Anwender wissen möchte. Vier der Ergebnisse stammen aus Foren, die einen unendlichen Wissensschatz bergen. Alt-MSN kam nur auf vier und Beta-MSN auf sechs Treffer. In beiden MSN-Listen fanden sich Spam-Seiten zu Dialern - genau so etwas möchte der Anwender aber gerade loswerden. Da ist er bei Google besser aufgehoben. Ähnlich gut wie Google zeigte sich Web.de mit neun Treffern - jedoch erst, nachdem wir die Suche durch den Ausdruck Anleitung Hilfe Entfernung eingrenzten. Web.de bekommt seine Ergebnisse ebenso wie Yahoo und Alt-MSN von Overture, wobei sich die Ergebnisse in Menge und Relevanz leicht unterschieden. Web.de bietet zusätzlich zu jedem Suchergebnis einen Themenbaum, über den sich die Suche weiter eingrenzen lässt. Im Trojaner-Beispiel verbesserte sich dadurch das Ergebnis, aber wir stellten auch das Gegenteil fest. Zum Beispiel bei unserem nächsten Test: +pizza +rezept -käse Die Suchmaschinen sollten zeigen, dass sie die Operatoren sauber ausführen und nicht doch ein Bröckchen Käse in das Ergebnis schlüpft. Google machte keinen Fehler, lieferte aber dennoch nur vier Volltreffer (mit käsefreien Pizzarezepten eben). Alt-MSN versteht die Operatoren überhaupt nicht und kam zu gar keinen Ergebnissen. Beta-MSN machte drei Syntaxfehler. Das heißt, eines der Suchworte fehlte oder Käse war zuviel. Bei Web.de fanden wir zwei leckere Pizzen, aber nach der Eingrenzung der Suche auf Pizzarezepte verließen uns die Teigfladen mit oder ohne Käse völlig: Kein einziges Pizzarezept fand sich in der Liste.
Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
-
Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 3245) [ClassicSimilarity], result of:
0.030969746 = score(doc=3245,freq=40.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 3245, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=3245)
0.25 = coord(1/4)
- Abstract
- Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
- Content
- Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
-
Google digitalisiert 15 Millionen Bücher (2005)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 3775) [ClassicSimilarity], result of:
0.030969746 = score(doc=3775,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 3775, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3775)
0.25 = coord(1/4)
- Content
- "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
-
Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 2678) [ClassicSimilarity], result of:
0.030969746 = score(doc=2678,freq=40.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 2678, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=2678)
0.25 = coord(1/4)
- Content
- "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
-
Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 22) [ClassicSimilarity], result of:
0.030969746 = score(doc=22,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 22, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=22)
0.25 = coord(1/4)
- Abstract
- Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.
-
Rieder, B.: Demokratisierung der Suche? : von der Kritik zum gesellschaftlich orientierten Design (2009)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 24) [ClassicSimilarity], result of:
0.030969746 = score(doc=24,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 24, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=24)
0.25 = coord(1/4)
- Abstract
- Seit die Techniker der Digital Equipment Company 1995 AltaVista einführten, die erste große Suchmaschine für das World Wide Web, hat sich vieles verändert. 2009 ist das Web die zentrale Plattform für alles, was mit Information und Kommunikation zu tun hat: es bietet Raum für eine Vielfalt von Aktivitäten und Vorgängen, die früher über zahlreiche verschiedene Kanäle verteilt waren. Mit 1,5 Milliarden Nutzern, mehr als einer Trillion Seiten und einer Palette von Services, die von der einfachen Darstellung von Text-basierter Information bis zu hoch entwickelten Applikationen und Multimedia-Technologien reichen, ist das Web der Gegenwart ein Informationsgigant und außerdem zentraler Bestandteil einer kapitalistischen Ökonomie, die sich von einem industriellen zu einem kognitiven Produktionsmodus entwickelt. Da das Web kein eigenes Index- oder Katalogsystem mitbringt, liegt es an den Suchmaschinen, die unübersichtliche Struktur des Web den Nutzern zu erschließen. Obwohl Suchmaschinen komplexe Werkzeuge sind, ist ihre Handhabung überraschend einfach: Eine aus einem oder mehreren Wörtern bestehende Suchanfrage führt zu einer geordneten Liste von Seiten, welche die angegebenen Begriffe enthalten. Es ist kein Wunder, dass Suchmaschinen zu den beliebtesten Internet-Diensten gehören.
-
Schmidt, E.; Rosenberg, J.: Wie Google tickt (2015)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 2406) [ClassicSimilarity], result of:
0.030969746 = score(doc=2406,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 2406, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=2406)
0.25 = coord(1/4)
- Abstract
- Wie wird aus einem Garagen-Start-up ein weltbekanntes Imperium? Das Geheimnis um Google, eine der wertvollsten Marken der Welt,ist gelüftet. Von niemand Geringerem als Google-CEO Eric Schmidt, Gründer Larry Page und Senior Vice President Jonathan Rosenberg. Und so wie Google längst mehr als eine Suchmaschine ist, ist »Wie Google tickt« weit mehr als eine Unternehmensgeschichte. Es ist spannende Inspirationsquelle und kluger Wegweiser. Wie baut man eine fruchtbare Unternehmenskultur auf? Wie entwickelt man wegweisende Strategien? Wie entsteht Innovation? Die drei Google-Insider sind angetreten, ihr Wissen in die Welt zu bringen. Eric Schmidt ist Informatiker und war langjähriger CEO von Google. Seit April ist er Executive Chairman von Google. Schmidt lehrt an der Stanford University und gehört seit 2009 zum Beraterteam von Barack Obama. Jonathan Rosenberg, Senior Vice President von Google, war vor allem für die innovative Produktentwicklung verantwortlich. Zusammen sind sie echte Google-Insider.
-
Lohberg, P.: Suchet, so werdet ihr finden ... : Mit der richtigen Suchmaschine leichter an Information aus dem Netz kommen (2001)
0.01
0.0076646213 = product of:
0.030658485 = sum of:
0.030658485 = weight(_text_:und in 5736) [ClassicSimilarity], result of:
0.030658485 = score(doc=5736,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27102837 = fieldWeight in 5736, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=5736)
0.25 = coord(1/4)
- Abstract
- Da hat man nun das gesamte Wissen der Menschheit im Griff, wohlverteilt auf Milliarden von Internetseiten. Und dann findet man nicht einmal die rudimentärsten Informationen zum gesuchten Thema. Suchmaschinen sind die Geister, die man rief und nun nicht mehr loswerden will - auch wenn sie häufig für viel Frustration sorgen: Auf eine einfache Frage bekommt man eine Unmenge von Antworten, die häufig gar nichts mit der Frage zu tun haben. Um mit den modernen Heinzelmännchen des Internets vernünftig umgehen zu können, sind Kenntnisse über die Arbeitsweise dieser Dienste hilfreich. Drei Arten von Anlaufstellen für Suchende gibt es im Netz: Kataloge, Suchmaschinen und Meta-Suchmaschinen. Bei den Katalogen (yahoo.de, web.de) hangelt man sich durch die Sites wie durch die Seiten eines Buches. Man klickt sich durch Rubriken und zahllose Unterrubriken, bis man dort angelangt ist, wo die gesuchte Information stehen könnte. Leider muß hier der Konjunktiv benutzt werden, denn die Struktur der Suchkataloge bedingt, daß die Internetseiten dort angemeldet werden müssen, wo sie am sinnvollsten plaziert sind: in der Unterrubrik der Unterrubrik der ... Das kann nur von Hand geschehen, und selbst der Betreiber der Seite muß sich bis dorthin durchklicken, wo er seine Information plaziert haben will. Von Vorteil ist daß dann am Ende Menschen die Einträge überprüfen, häufig hochbezahlte Akademiker, die aber kaum der riesigen Menge an neuen Seiten Herr werden. Dennoch, in Katalogen gefundene Informationen sind meist relativ hochwertig. Klassische und Meta-Suchmaschinen Die eigentlichen Suchmaschinen (altavista.de, google.de) schicken kleine Spider-Programme in das Netz oder auf Anfrage zu bestimmten Seiten. Diese Programme durchsuchen selbständig die Seiten nach den gewünschten Begriffen. Die eine indiziert den gesamten Text, die andere legt das Hauptgewicht auf die Meta-Tags im Kopf der HTML-Datei - Auszeichnungen, die den Inhalt der Seite beschreiben (sollen), andere legen großen Wert auf den Titel oder den Datei- oder DomainNamen. jeder Seitenbetreiber legt großen Wert darauf, bei einer Suchabfrage weit vorne gelistet zu werden. Das Ranking ist wichtig, denn kaum ein Suchender sieht auf Seite zehn der Suchergebnisse nach. Meta-Suchmaschinen (metager.de, metaspinner.de) fragen Datenbestände mehrerer Suchmaschinen gleichzeitig ab. So kann man sich die Suche bei unterschiedlichen Suchmaschinen sparen. Wie aber frage ich eine Suchmaschine? Fast jeder Intemetnutzer kennt eine oder mehrere Suchmaschinen. Nur wenige aber haben je auf den Link zur Hilfeseite oder Profisuche - meist ganz oben in direkter Nähe des Suchfensters - geklickt. Dort findet sich Wichtiges: die Sprache, die das Suchprogramm versteht. Hier kann man sich informieren, wie man die Suche rein technisch eingrenzen und dadurch beschleunigen kann. Viele Suchmaschinen kennen Boolsche Operatoren, mit denen man Worte ausschließen "-" oder Worte kombinieren kann "+". Auch Gänsefüßchen (sprich: Anführungszeichen) kommen häufig zum Einsatz. Damit kann man Wortkombinationen oder Satzfragmente zusammenpacken. So werden diese Kombinationen in bestimmter Reihenfolge gesucht - und theoretisch auch gefunden. Die Spiderprogramme der Suchmaschinen können, so schnell sie auch sein mögen, nur einen Bruchteil der Seiten, die täglich neu ins Netz gestellt werden, besuchen. Wie suche ich nun am besten? Angenommen, Sie suchen eine Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Es liegt auf der Hand, daß die Suche nach einem dieser Worte zu viele unnötige Seiten finden würde. Also nehmen Sie Unterkunft + Behinderte + Rollstuhl + Schwarzwald. Das ergibt dann ein knappes Dutzend Ergebnisse, von denen eines möglicherweise zutrifft. Wenn nicht finden Sie sicher einen weiterführenden Link, eine Adresse oder Telefonnummer. Der Autor dieser Zeilen hat sich - entgegen der verbreiteten Lehrmeinung - auf einen anderen Weg begeben. Als Freund der Suchmaschinen Google und MetaGer gibt er den vollständigen Satz ein: Unterkunft für Behinderte mit Rollstuhl im Schwarzwald. Und siehe da, es funktioniert! Ein paar wenige Ergebnisse werden angezeigt. Aber fast alle passen haargenau!