-
Reinke, S.; Schmidt, M.: Einmal suchen, alles finden : 7 Meta-Suchmaschinen im Test (2001)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 176) [ClassicSimilarity], result of:
0.02896642 = score(doc=176,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 176, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=176)
0.25 = coord(1/4)
- Abstract
- Von MetaSuchmaschinen oder Metacrawlern erwarten viele Datensucher Wunder. Die Crawler durchstöbern Kataloge von Suchmaschinen, fassen Ergebnisse zusammen, gleichen sie ab und präsentieren sie. CHIP hat sieben deutschsprachige, kostenlose Metacrawler getestet
-
Schulzki-Haddouti, C.: Mit Google durchs WWW : Was die immer populärer werdende Suchmaschine vom Rest der Welt unterscheidet (2001)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 529) [ClassicSimilarity], result of:
0.02896642 = score(doc=529,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 529, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=529)
0.25 = coord(1/4)
- Abstract
- Eine kleine, unscheinbare Suchmaschine hat sich in wenigen Monaten vom Geheimtipp zum Renner entwickelt: Google. Mitte Februar landete Google einen Coup: Es übernahm das Usenet-Archiv von Deja.com. Nicht erst damit ist Google die größte und intelligenteste Suchmaschine. Bis auf das Eingabefeld und das Google-Logo ist nichts zu sehen. Keine Kataloge, keine Nachrichten, kein Übersetzungsdienst, keine Werbung - kein Portal. Google kennt nur eins: Das Suchen von Informationen. Erstaunlich für den Erstnutzer: Oft stehen die relevanten Ergebnisse an erster Stelle. Google arbeitet mit einer ganzen Reihe von Tricks, um seine Nutzer nicht zu frustrieren. Sein Haupttrick: Es bewertet die Webseiten als wichtig, auf die viele andere Webseiten verweisen. Die Seite, auf die am häufigsten verwiesen wird, steht ganz oben. Auf diese Weise macht Google auch Nachbarschaften aus: Als "ähnliche Seite" von Telepolis findet man zum Beispiel c'theory. In der Nachbarschaft des Handelsblatts hingegen findet man andere Wirtschaftszeitungen und -magazine. Entwickelt wurde Google vom Computeringenieur Lawrence Page und dem Mathematiker Sergey Brin. Sie lernten sich an der Stanford University kennen, wo sie "einen Prototypen für eine umfassende Suchmaschine" entwickelten. Der Prototyp mit 24 Millionen Seiten samt Hyperlink-Datenbank war 1997 zunächst auf einem Server der Stanford-Universität zu bewundern. Heute ist Google eine florierende Firma. Rund 40 der 200 Mitarbeiter von Google haben einen Doktortitel, die Hälfte ist im Software-Engineering tätig
-
Hoffmann, U.: Jeeves und die schlaue Nuss finden (fast) alles! (2002)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 955) [ClassicSimilarity], result of:
0.02896642 = score(doc=955,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 955, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=955)
0.25 = coord(1/4)
-
Behrens, D.: Google geheim : 10 Google-Hacks: mehr finden im Web (2008)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 1162) [ClassicSimilarity], result of:
0.02896642 = score(doc=1162,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 1162, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=1162)
0.25 = coord(1/4)
- Abstract
- Aufgedeckt: Unbekannte Tricks, mit denen Sie wirklich alles finden. Es genügt, die richtigen Suchbegriffe und Befehle zu verwenden ...
-
Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen (2003)
0.01
0.0072416044 = product of:
0.028966418 = sum of:
0.028966418 = weight(_text_:und in 1337) [ClassicSimilarity], result of:
0.028966418 = score(doc=1337,freq=50.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487627 = fieldWeight in 1337, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=1337)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen werden zunehmend unbrauchbar: Werbeagenturen manipulieren gezielt Suchergebnisse. Wer nicht zahlt, wird nicht mehr gefunden - und der Nutzer erhält Fake-Sites statt Fakten
- Content
- "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de".
Wer jedoch einen dieser Links aufruft, wird per JavaScript blitzschnell auf ein "Zink Portal" der Firma n-factory (www.nfactory.com) geführt. Dieses Portal gibt es in fünf verschiedenen Ausführungen, aber immer mit dem gleichen Inhalt: Wer hier landet, kommt mit dem nächsten Klick zu Werbepartnern wie Autoscout24 oder Radblenden.de. Die Top-Platzierungen im Ranking der Suchmaschinen erreichen Firmen wie n-factory durch so genannte "Doorway Pages". Diese "Brückenseiten" sind der letzte Schrei bei den web-Vermarktern. Der Trick: Hunderte von verschiedenen Domains mit Tausenden von Webseiten werden mit identischem oder nur leicht variierendem Inhalt erstellt. Gleichzeitig verweisen diese Seiten konsequent aufeinander. Die Software-Spider der Suchmaschinen, die durchs Web wuseln und Seiten indizieren, achten ihrerseits genau auf den Grad der Verlinkung einer Webseite, um ihre Bedeutung festzustellen - schon rutscht die "Doorway Page" im Ranking nach oben. Darüber hinaus können die Werber noch weitere Waffen im Kampf um Bestplatzierungen ins Feld führen. Die älteste Form der Ranking-Manipulation ist das "Spamdexing". Hierbei werden Schlüsselbegriffe im Quelltext einer HTML-Seite gleich hundertfach wiederholt oder gar falsche Keyword-Listen eingebaut, die nichts mit dem Inhalt der Webseite zu tun haben. Beliebter, weil von den Suchmaschinen schwerer zu durchschauen, sind die "Cloaking Sites". Diese unsichtbaren (engl. "cloaked" = verhüllt) Webseiten werden nur für die Suchroboter von Google und Co. entworfen. Erkennt der Server einer solchen Cloaking Site die Such-Software anhand der IP-Adresse oder ihrer Identifikation, wird dem Spider eine gefälschte Webseite untergejubelt, die andere Surfer nie zu Gesicht bekommen. Fast jedenfalls: Die dunkle Seite des Webs erscheint zumindest in jenen Textauszügen, die die Suchmaschinen in ihren Ergebnislisten auswerfen - und meist wimmelt es dann nur so von Schlüsselwörtern ohne Zusammenhang. Im zuckersüßen Werberdeutsch werden derlei Maßnahmen natürlich ganz anders benannt. Optimierungs-Verfahren wie die berüchtigten Doorway Pages preist beispielsweise die Ebersberger Firma Imedia (www.imedia-online.de) als Allzweckwaffe, denn schließlich könnten diese Seiten "von Suchmaschinen nicht abgelehnt werden". Schön, dass Imedia auch gleich noch einen Rundumservice bietet und für Kunden Webseiten für "die Zielgruppe Suchmaschinen" baut. Von Ranking-Manipulation will Geschäftsführer Dominique Madelaine freilich nichts wissen, denn die Seiten von Imedia, so Madelaine, "sollen kein Spam sein"' und der Einsatz von Brückenseiten bleibe ohnehin "sehr begrenzt".
Das mag für Imedia gelten, nicht aber unbedingt für die Partner der Firma. So gehören zum Portfolio der Ebersberger die beiden Services Webmasterplan (http://de.webmasterplan.com) und Affili.Net (www.affili.net). Webmaster plan erstellt die optimierten Webseiten, Affilinet besorgt die "Partnerprogramme" für eben diese Seiten. Interessierte Web-Administratoren können so Werbelinks und Banner für Imedia-Kunden auf ihren Seiten platzieren und mit den Klicks Geld verdienen. Interessanterweise befinden sich unter diesen Partnern auch die zahlreichen "Link Portale" von n-factory, die mit Seiten über "flinke Flitzer", "Kolbenholben" oder "Autotuningtrixx" hitverdächtige Rankings bei den Suchmaschinen erzeugen. Trotz des "Erfolges" mag n-factory-Geschäftsführer Stefan Englert aber nicht so recht über seine Brückenseiten reden. Schon die Erwähnung des Firmennamens in CHIP stieß bei Englert auf wenig Gegenliebe - und das bei einem Unternehmen, das laut Eigenwerbung lediglich "zielgruppengerechtes NetzMarketing" betreibt. Andere Ranking-Profis sind da auskunftsfreudiger. Dazu gehören die Firma Allactive Medien GmbH (www.allactive.de) und ihr Partner "Traffictime" aus Kevelaer. Deren Link-Portale erreichen bei Google Suchbegriffen für "günstige Prozessoren" in der Ergebnisliste die beachtlichen Plätze zwei, fünf und sieben und verlinken allesamt direkt auf die eBay-Homepage. Allactive-Chef Jens Menzenbach sieht darin auch gar nichts Verwerfliches, denn schließlich sei "das, was der User sucht, auch das, was er bei eBay findet". Ergo: Da man bei eBay alles findet, darf man auch jeden Suchbegriff auf eBay verlinken. Peinlich ist Allactive und Traffictime jedoch, dass selbst uralte Doorway-Pages gleich mehrfach bei den Suchmaschinen auftauchen - nach Hinweisen von CHIP nahm die Firma prompt die Übeltäter aus dem Index. Ohnehin, beteuert Menzenbach, gebe es für den Einsatz von DoorwayPages eine Grenze - eine finanzielle, keine moralische: "Der Traffic wird irgendwann zu teuer. 20.000 Seiten würden einem einfach das Genick brechen." Derart viele Seiten mögen tatsächlich unrealistisch sein, doch bis zu 2.000 Link-Portale sind durchaus nichts Ungewöhnliches. Und der Aufwand lohnt sich: Wird der arglose Surfer erfolgreich auf die Webseite des Werbekunden verfrachtet, wird dies laut Branchen-Informationen mit 10 bis 20 Cent Provision vergütet. Füllt der gutwillige Nutzer auch noch ein Formular mit seinen persönlichen Daten aus, werden für diesen "Lead" angeblich bis zu 4 Euro ausbezahlt. Und ein Verkauf, neudeutsch "Sale" genannt, schlägt gar mit ein bis fünf Prozent der Verkaufssumme zu Buche.
Der Schönheitsfehler: Von dem vielen Geld hat der Suchmaschinen-Betreiber gar nichts, schlimmer noch: Das Renommee leidet. Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet". Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet".
-
bs: Startschuss zur Desktop Razzia (2005)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3251) [ClassicSimilarity], result of:
0.02896642 = score(doc=3251,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3251, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3251)
0.25 = coord(1/4)
- Abstract
- Die Suche nach Informationen und Dateien auf dem eigenen PC blieb bisher ein mühsames Unterfangen. Jetzt aber scheint die Zeit für eine neue, zentrale Desktop Anwendung gekommen. Die Schlacht um die Gunst des PC-Anwenders hat begonnen
-
Lewandowski, D.: Desktop-Suche, Shortcuts, SMS (2004)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3287) [ClassicSimilarity], result of:
0.02896642 = score(doc=3287,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3287)
0.25 = coord(1/4)
- Abstract
- Google hat im Oktober wieder neue Funktionen vorgestellt. Die bedeutendste davon ist die Desktopsuche (http://desktop.google.com), die EMails, Office-Dokumente und bereits besuchte Webseiten durchsucht. - Auf der deutschen Google-Seite wurden neue Shortcuts integriert. Schließlich gibt es in den "Google Labs" eine neue Suche per SMS.
-
Lewandowski, D.: Spezialsuche für wissenschaftliche Informationen (2004)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
0.02896642 = score(doc=3298,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3298, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3298)
0.25 = coord(1/4)
- Abstract
- Google bietet unter http://scholar.google.com/ eine spezielle Suche für wissenschaftliche Inhalte an. Im Gegensatz zu Systemen wie CiteSeer, die sich auf ein Fachgebiet beschränken, strebt Google die Erfassung aller wissenschaftlichen Inhalte an und arbeitet auch mit den Wissenschaftsverlagen zusammen, um deren Inhalte mit aufnehmen zu können.
-
Lewandowski, D.: Start der eigenen Suchmaschine als Beta-Version (2004)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3299) [ClassicSimilarity], result of:
0.02896642 = score(doc=3299,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3299, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3299)
0.25 = coord(1/4)
- Abstract
- Microsoft hat im November nach einer langen Phase der Ankündigungen eine Beta-Version seiner selbst entwickelten Suchmaschine freigeschaltet (http://beta.search.msn.de). Die Qualität der Suchergebnisse ist nach ersten Tests als gut zu bewerten. Erfreulich, dass auf dem von Yahoo und vor allem Google dominierten Markt nun wenigstens ein dritter Player Fuß fassen wird.
-
IAC übernimmt Ask Jeeves : Neuer weltweiter Player? (2005)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3373) [ClassicSimilarity], result of:
0.02896642 = score(doc=3373,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3373, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3373)
0.25 = coord(1/4)
- Abstract
- Die InterActiveCorp. (IAC) übernimmt die Suchmaschine AskJeeves (www.ask.com) für 1,85 Milliarden US-Dollar in Aktien. Sowohl die Technologie als auch die Marke Ask Jeeves sollen weiterentwickelt werden. Informationen von IAC-Angeboten wie Expedia.com und Ticketmaster werden per vertikaler Integration bei Ask Jeeves angezeigt werden.
-
Lewandowski, D.: Freiwillige Selbstkontrolle, Stärkung "alternativer Suchmaschinen" : Suchmaschinen und Politik (2005)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3374) [ClassicSimilarity], result of:
0.02896642 = score(doc=3374,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3374, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=3374)
0.25 = coord(1/4)
-
Google Answers vor Start in Deutschland? (2005)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3436) [ClassicSimilarity], result of:
0.02896642 = score(doc=3436,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3436, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3436)
0.25 = coord(1/4)
- Abstract
- Euroforum-Jahrestagung "Zukunftsforum Medien" in Köln. Google erwägt, noch in diesem Jahr in Deutschland einen Suchservice gegen Bezahlung herauszubringen. Dies teilte Yuri Narciss, Google-Manager für Vertikale Märkte in Deutschland mit. "Google Answers"laufe bereits erfolgreich in den Vereinigten Staaten. Der Nutzer als Auftraggeber legt fest, was ihm die Antwort wert ist. Der maximale Einsatz beträgt 200 Dollar. Die Antwort kommt aus dem Kreis von 500 Experten, die von Google geprüft und zertifiziert worden sind. Anschließend steht die bezahlte Antwort allen Nutzern kostenfrei zur Verfügung. "Etwa ein Drittel aller Anfragen in unserer Suchmaschine haben einen kommerziellen Hintergrund," so Narciss.
- Content
- "Für Google werde 2005 das "Jahr der Internationalisierung" sein. Alle bislang nur in den USA eingeführten Dienste sollten so rasch wie möglich in weiteren Ländern eingeführt werden. "Froogle", der Dienst für Produkt- und Preisinformationen, solle künftig auch als Dienst für das Handy verfügbar sein. Neu wolle man Location Based Services herausbringen. Die Voralberger Nachrichten bemühen sich verstärkt um die Koppelung gedruckter Seiten mit Online-Inhalten wie Downloads von Ergebnislisten, Formularen, Bauanträgen, Bilanzen und Liedertexten, wie Geschäftsführer Eugen Russ erklärte. Mittlerweile habe man mehr als 1.000 registrierte Nutzer. Dies gäben nicht nur die Themen für die Lokalausgaben vor, sondern beteiligten sich darüber hinaus teilweise als freie Mitarbeiter. Wie man mit Inhalten im Internet Geld verdienen kann, mache America Online seit Jahren vor. Das meinte Simone Brecht, Vice President Progamming für AOL Deutschland. Das wichtigste USP ist aus ihrer Sicht die einfache Abrechnung mit dem Kunden. Hinzukommen exklusive Inhalte. Bei Music an Demand ist AOL derzeit mit 500.000 Kunden nach T-Online und iTunes von Apple der drittgrößte Anbieter in Deutschland. Neu wird Internet-Telefonie auch für Nicht-Abonnenten angeboten. Hier hebt AOL die gute Sprachqualität des eigenen Angebots hervor."
-
Fordahl, M.: Mit Google den PC durchforsten : Kleines Programm erstellt in rechenfreien Zeiten einen Index (2004)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 4209) [ClassicSimilarity], result of:
0.02896642 = score(doc=4209,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 4209, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4209)
0.25 = coord(1/4)
- Content
- "Die Google-Suche nach Dateien im Internet kann nun auch auf en eigenen PC ausgedehnt werden. Ein kleines kostenloses Programm, das sich am unteren Bildschirmrand einnistet, startet die Volltextsuche auf der Festplatte. Google erfasst den Inhalt aller Web-Seiten und Dokumente im Microsoft-Office-Format sowie die Namen sonstiger Dateien und zeigt die Trefferliste im Browser in der vertrauten Liste an - allerdings nur auf Computern mit Windows 2000 oder Windows XE Bei der Entwicklung dieses Werkzeugs hat Google sowohl die eigene Suchtechnologie als auch eine Schwäche von Windows ausgenutzt. Bei der "Desktop-Suche" kommt der gleiche Algorithmus zum Einsatz wie bei der Internet-Suche. Für die dazu benötigte Datenbank wird der Index-Dienst von Windows verwendet, der nur wenigen Anwendern bekannt ist, weil er etwas kompliziert und obendrein ziemlich langsam ist. Das neue Google Tool erstellt selbst diesen Suchindex für die Dateien in der Zeit, wenn der Computer gerade untätig ist. Sobald das 400 KB große Programm heruntergeladen und installiert ist, fängt es damit an, den PC zu durchforsten. Bei gut gefüllten Festplatten dauert es ein paar Stunden oder auch ein paar Tage, bis dieser Vorgang abgeschlossen ist. Sobald der Prozessor 30 Sekunden nichts zu tun hat, wird die Arbeit am Index aufgenommen beziehungsweise fortgesetzt. Ist er fertig, bietet diese Datenbank das Material, auf den sich der Google- Algorithmus stürzt, sobald eine Suchanfrage gestartet wird. Die meisten Google-Tricks für die Suche nach Web-Seiten, Bildern oder Beiträgen in Newsgroups funktionieren auch bei der Desktop-Suche."
-
Nachrichten-Landkarten im Projekt Romso.de (2005)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 4372) [ClassicSimilarity], result of:
0.02896642 = score(doc=4372,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 4372, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4372)
0.25 = coord(1/4)
- Content
- "Bisher stellte man Nachrichten in zeitlicher Abfolge dar, gelegentlich noch nach Sachgebieten geordnet. Die Nachrichtensuchmaschine Romso.de des SuMa-eV geht erstmals auch noch einen anderen Weg: die Nachrichten werden auf einer Landkarte Orten zugewiesen. Zu jeder Stadt generiert Romso tagesaktuelle Schlagwörter, die die jeweiligen lokalen Themen der Stadt zusammenfassend beschreiben. So sieht man auf einen Blick, was in den deutschen Städten Neues passiert. Das ganz Besondere daran: hier sitzt nicht eine Schar von Redakteuren, sondern all dieses wird automatisch erzeugt! Hinter Romso.de stecken zwei kluge Köpfe, die aus dem Umfeld der Meta-Suchmaschine metager.de kommen: Thorsten Blancke und Martin Gutschke. Sie haben einen Algorithmus entwickelt, mit dem zu den größten deutschen Städten die aktuellsten Schlagwörter berechnet werden. Mit Hilfe von Geodaten werden diese auf Satellitenbildern des Deutschen Zentrums für Luft- und Raumfahrt (DLR) positioniert. Auf der Nachrichtenlandkarte sind die Städte mit ihren Schlagwörtern zu sehen. Durch Anwählen wird eine Trefferseite angezeigt, von der man zu den entsprechenden Artikeln gelangt. Auf weiteren Karten sind detaillierte Nachrichten zu finden. Auf diese Weise ist ein bequemes Navigieren mit der Maus, sowohl räumlich als auch thematisch, durch die aktuelle Nachrichtenwelt möglich. Die Texte und Charts auf www.romso.de werden von 9:30 bis 23:30 Uhr stündlich generiert."
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.7, S.348
-
Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 5134) [ClassicSimilarity], result of:
0.02896642 = score(doc=5134,freq=32.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 5134, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=5134)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
-
Wikia Search : Das Anti-Google (2008)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 369) [ClassicSimilarity], result of:
0.02896642 = score(doc=369,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 369, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=369)
0.25 = coord(1/4)
- Content
- "Es ist ein Start mit verschiedenen Schwächen: Der neue Google-Konkurrent "Wikia Search" verschreckt den User in seiner aktuellen Vor-abversion mit fehlerhaften Links, fehlenden Ergebnissen oder auch fragwürdigen Seitenbewertungen. Trotzdem bietet die neue Suchmaschine des Wikipedia-Gründers Jimmy Wales schon jetzt einen unschätzbaren Vorteil gegenüber dein Branchenprimus Google: Wikia Search legt den Nutzern offen, wie die Suchergebnisse zustande kommen. Sie setzt nämlich OpenSource-Programme ein - etwa den Webcrawler Grub. Dessen Algorithmen liegen für jedermann offen einsehbar im Web. Wikia Search fordert gar zum aktiven Mitmachen auf: Die Surfer können angezeigte Links bewerten Lind so die Rangfolge der Ergebnisse beeinflussen. Die Suchmaschine soll die Ergebnisse mit der Zeit besser nach Relevanz und Qualität sortieren, verspricht das Entwicklerteam. Derzeit speichert die Seite Bewertungen durch User jedoch noch nicht ab. Zusätzlich zeigt Wikia Search, passend zu den Suchbegriffen, jeweils einen kurzen Übersichtsartikel an, der allgemeine Informationen enthält. Sollte so ein Text noch fehlen, kann ganz einfach per Mausklick ein neues Dokument angelegt werden. Praktisch dabei: Jeder Nutzer hat die Möglichkeit, den Inhalt ohne Anmeldung zu bearbeiten und zu erweitern. Eine Alternative zur normalen Suche soll die »Whitelist« sein. Darin können User eine Art Webseiten-Kata-log anlegen, der für bessere Suchergebnisse sorgen soll. Die Idee einer offenen und nutzerorientierten Suchmaschine klingt vielversprechend - eine ernsthafte Konkurrenz für etablierte Suchmaschinen wie Google kann Wikia Search allerdings noch nicht sein. Denn die neue Websuche ist abhängig von der Community und ihrer Mitarbeit an dem Projekt. Dass so ein Ansatz funktionieren kann, hat die Online-Enzyklopädie Wikipedia immerhin gezeigt."
-
dpa: Microsoft will aufholen : Viel Geld für Angriff auf Google (2006)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 4052) [ClassicSimilarity], result of:
0.02896642 = score(doc=4052,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 4052, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4052)
0.25 = coord(1/4)
- Content
- "Microsoft greift für den Angriff auf Suchmaschinen-Marktführer Google noch tiefer in die Tasche. Die Ausgaben für das Online-Anzeigengeschäft, das MSN-Portal und neue Suchtechnologien werden im Geschäftsjahr, das im Juli startet, um 60 Prozent auf 1,6 Milliarden Dollar aufgestockt, wie Konzernchef Steve Ballmer ankündigt. Allein 1,1 Milliarden Dollar davon gingen in Forschung und Entwicklung. Microsoft sei im Markt für Online-Suche sehr ernsthaft engagiert, sagt Ballmer. "Nur zwei bis drei Unternehmen können wirklich die Infrastruktur liefern, die mit den Anforderungen der Konsumenten und Anzeigenkunden Schritt halten kann." Derzeit dominiert der weltgrößte Suchmaschinenbetreiber Google diesen Markt mit Abstand. Allein in den USA laufen nach Angaben von Nielsen Net-Rating 49 Prozent aller Suchanfragen über Google. Microsofts MSN Search rangiert derzeit mit knapp elf Prozent an dritter Stelle, noch hinter Yahoo mit gut 22 Prozent der Suchanfragen. Zudem will Microsoft ein bisher noch weitgehend unerschlossenes Geschäftsgebiet besetzen: Werbung in Videospielen. Dazu übernimmt der weltgrößte Softwarekonzern die darauf spezialisierte Firma Massive, bestätigt der für die Spielekonsole Xbox zuständige Microsoft-Manager Robbie Bach. Die in New York ansässige Firma mit derzeit rund 80 Beschäftigten hat Verträge unter anderem mit führenden Spiele-Produzenten wie THQ und Konami."
-
Weber, K.: Search engine bias (2011)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 351) [ClassicSimilarity], result of:
0.02896642 = score(doc=351,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 351, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=351)
0.25 = coord(1/4)
- Abstract
- Der Name 'Google' wird heute synonym für ,Suchmaschine' genutzt; das Verb 'googeln' hat es zu einem Eintrag im Duden gebracht: Google ist allgegenwärtig. Dies bestätigen Statistiken, die aufweisen, dass Google in vielen Ländern andere Suchmaschinen völlig marginalisiert hat. Außerdem zeigen Untersuchungen, dass sich viele Nutzerinnen und Nutzer auf die Ergebnisse einer einzigen Suchmaschine - oft eben Google - verlassen. Daher stellt sich die Frage, ob die tatsächliche Qualität der Suchergebnisse das Vertrauen in die angenommene Qualität einer Suchmaschine rechtfertigen kann. Nach einleitenden Bemerkungen zum Suchmaschinenmarkt und einer kurzen Beschreibung der generellen Funktionsweise heute verbreiteter Suchmaschinen wird evaluiert, welche Faktoren die Ergebnisse einer Suchmaschine determinieren. Dabei wird sich zeigen, dass Suchergebnisse durch vielfältige Faktoren beeinflusst werden, so bspw. durch das Nutzerverhalten auf verschiedenen Ebenen, durch die verwendeten Indexierungsund Suchalgorithmen oder durch die Inhalte des Netzes selbst. Diese und weitere Faktoren führen zu Verzerrungen der Suchergebnisse gegenüber einem unterstellten Idealergebnis. Es zeigt sich, dass es in vielen Situationen sinnvoll ist, sich nicht nur auf eine Suchmaschine zu verlassen bzw. den Ergebnissen einer Suchmaschine nicht blind zu vertrauen. So ist im wissenschaftlichen oder journalistischen Kontext dringend die Nutzung von bereichsspezifischen Suchmaschinen und anderer Rechercheformen angeraten.
-
epd: Kaiserslauterer Forscher untersuchen Google-Suche (2017)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 3815) [ClassicSimilarity], result of:
0.02896642 = score(doc=3815,freq=8.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 3815, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3815)
0.25 = coord(1/4)
- Content
- "Bei der Suche nach Politikern und Parteien über Suchmaschinen wie Google spielt Personalisierung einem Forschungsprojekt zufolge eine geringere Rolle als bisher angenommen. Bei der Eingabe von Politikernamen erhalten verschiedene Nutzer größtenteils die gleichen Ergebnisse angezeigt, lautet ein gestern veröffentlichtes Zwischenergebnis einer Analyse im Auftrag der Landesmedienanstalten. Die Ergebnisse stammen aus dem Forschungsprojekt "#Datenspende: Google und die Bundestagswahl2017" der Initiative AIgorithmWatch und der Technischen Universität Kaiserslautern. Im Durchschnitt erhalten zwei unterschiedliche Nutzer demnach bei insgesamt neun Suchergebnissen sieben bis acht identische Treffer, wenn sie mit Google nach Spitzenkandidaten der Parteien im Bundestagswahlkampf suchen. Die Suchergebnisse zu Parteien unterscheiden sich allerdings stärker. Bei neun Suchanfragen gebe es hier nur fünf bis sechs gemeinsame Suchergebnisse, fanden die Wissenschaftler heraus. Die Informatikprofessorin Katharina Zweig von der TU Kaiserslautern zeigte sich überrascht, dass die Suchergebisse verschiedener Nutzer sich so wenig unterscheiden. "Das könnte allerdings morgen schon wieder anders aussehen", warnte sie, Die Studie beweise erstmals, dass es grundsätzlich möglich sei, Algorithmen von Intermediären wie Suchmaschinen im Verdachtsfall nachvollziehbar zu machen. Den Ergebnissen zufolge gibt es immer wieder kleine Nutzergruppen mit stark abweichenden Ergebnislisten. Eine abschließende, inhaltliche Bewertung stehe noch aus. Für das Projekt haben nach Angaben der Medienanstalt bisher fast 4000 freiwillige Nutzer ein von den Forschern programmiertes Plug-ln auf ihrem Computer- installiert. Bisher seien damitdrei Millionen gespendete Datensätze gespeichert worden. Das Projekt wird finanziert von den Landesmedienanstalten Bayern, Berlin-Brandenburg, Hessen, Rheinland-Pfalz, Saarland und Sachsen." Vgl. auch: https://www.swr.de/swraktuell/rp/kaiserslautern/forschung-in-kaiserslautern-beeinflusst-google-die-bundestagswahl/-/id=1632/did=20110680/nid=1632/1mohmie/index.html. https://www.uni-kl.de/aktuelles/news/news/detail/News/aufruf-zur-datenspende-welche-nachrichten-zeigt-die-suchmaschine-google-zur-bundestagswahl-an/.
-
Hurz, S.: Google verfolgt Nutzer, auch wenn sie explizit widersprechen (2018)
0.01
0.007241605 = product of:
0.02896642 = sum of:
0.02896642 = weight(_text_:und in 4404) [ClassicSimilarity], result of:
0.02896642 = score(doc=4404,freq=2.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.24487628 = fieldWeight in 4404, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Abstract
- Wenn Google-Nutzer den Standortverlauf ausschalten, speichert das Unternehmen trotzdem Bewegungsdaten. Betroffen sind mehr als zwei Milliarden Menschen, die Android-Smartphones oder iPhones mit Google-Diensten verwenden. Wer das Tracking verhindern will, muss die "Web- und App-Aktivitäten" komplett deaktivieren.