-
DPA/FR: Google im Visier : Umstrittene Datenspeicherung (2007)
0.00
0.00295703 = product of:
0.01182812 = sum of:
0.01182812 = weight(_text_:und in 5925) [ClassicSimilarity], result of:
0.01182812 = score(doc=5925,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.09795051 = fieldWeight in 5925, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=5925)
0.25 = coord(1/4)
- Content
- "Google ist wegen der Speicherung von Suchanfragen im Visier von EU-Datenschützern. Mit der Bevorratung der Suchanfragen verletzt der Suchmaschinenspezialist möglicherweise die Datenschutzgesetze. Die so genannte Artikel-29-Gruppe - das sind unabhängige Experten aus der Europäischen Union - verlangt in einem Brief Auskunft von Google über die Speicherpraxis. Ein Sprecher von EU-Justizkommissar Franco Frattini sagte am Freitag in Brüssel: "Der Kommissar hält die in dem Brief gestellen Fragen für angemessen." Es bleibe nun abzuwarten, welche Antworten das Unternehmen gibt. Der. Vorsitzende der Artikel-29-Gruppe ist der deutsche Datenschutzbeauftragte Peter Schaar. Wie die Finanznachrichtenagentur Bloomberg am Freitag berichtete, will Google noch vor der nächsten Sitzung der Beratergruppe im Juni eine Stellungnahme abgeben. Peter Fleischer, Google Datenschutz-Experte in Paris, sagte, das Unternehmen sehe sich verpflichtet, einen konstruktiven Dialog mit den Datenschützern zu führen. Noch bis vor kurzem speicherte das Unternehmen bei jeder Suche weltweit jeweils den vom Nutzer eingegebenen Suchbegriff und die Internet-Protokoll-Adresse seines Computers auf unbestimmte Zeit. Dies sei vor allem aus Sicherheitsgründen geschehen, stellte das Unternehmen fest. Vor wenigen Wochen schränkte Google die Bevorratung auf eineinhalb bis zwei Jahre ein. Dies sei zwar ein Schritt in die richtige Richtung, reiche aber vermutlich nicht aus, sagte Datenschützer Schaar. Auch wem Google derzeit im Rampenlicht steht, dürften solche Datenschutz-Bedenken mehrere große Unternehmen betreffen. So speichern auch Google-Konkurrenten wie Yahoo oder Microsoft die Daten der Nutzer der Portale oder Suchmaschinen, um Nutzergruppen gezielt mit Werbeanzeigen bedienen zu können. Wie Bloomberg berichtet, seien bei Yahoo oder Microsoft allerdings noch keine entsprechenden Anfragen der Datenschützer eingetroffen. Bei Suchmaschinenanfragen im deut schen Internet besitzt Google einen Marktanteil von über 90 Prozent. Das Unternehmen expandiert mit rasanter Geschwindigkeit Der Internetkonzern steigerte den Gewinn im ersten Quartal um fast 70 Prozent auf eine Milliarde Dollar. Der Umsatz war mit knapp 3,7 Milliarden Dollar (2,7 Milliarden Euro) um 63 Prozent höher als in der Vorjahreszeit."
-
Henzinger, M.; Wiesemann, M.: Google-Forschungschefin Monika Henzinger beklagt Manipulationen von Suchmaschinen : "Tricks der Porno-Branche" (2002)
0.00
0.00295703 = product of:
0.01182812 = sum of:
0.01182812 = weight(_text_:und in 1137) [ClassicSimilarity], result of:
0.01182812 = score(doc=1137,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.09795051 = fieldWeight in 1137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1137)
0.25 = coord(1/4)
- Abstract
- FOCUS: Viele Menschen sind frustriert, weil sie im Internet vergebens suchen. Warum versagen Suchmaschinen so häufig? Henzinger: Gerade Netz-Neulinge formulieren Suchbegriffe falsch, fragen zu allgemein oder zu speziell. Suchmaschinen haben Schwierigkeiten, aus einem oder zwei Wörtern die Gedanken eines Nutzers abzulesen. FOCUS: Google könnte dennoch Einsteigern bei der Suche mehr helfen ... Henzinger: ... indem wir aus den täglich 150 Millionen Suchanfragen Rückschlüsse ziehen, richtig. In Zukunft könnte die Software den Nutzer fragen: Du hast "BMW" eingegeben, willst du einen Wagen kaufen, mieten oder etwas über die Technik erfahren? FOCUS: Noch allerdings muss man sich durch lange Ergebnislisten wühlen. Henzinger. Suchmaschinen können heute eine Website zwar nach einem bestimmten Wort durchsuchen, aber nicht den Sinn verstehen. In dieser Hinsicht hinkt die Entwicklung den Anforderungen der Nutzer hinterher. FOCUS: Was unternehmen Sie dagegen? Henzinger: Wir arbeiten zum Beispiel verstärkt daran, zueinander in Beziehung stehende Internet-Seiten in eine Themen-Schublade zu stecken. Die Gefahr ist jedoch, dass Homepage-Betreiber das System unterlaufen, um weit oben auf der Ergebnisliste zu landen. FOCUS: Was anscheinend schon oft passiert ist, denn Google gerät wie andere Dienste immer wieder in die Schlagzeilen, weil Suchergebnisse von außen manipuliert wurden. Henzinger: Wu beobachten eine Art Wettrüsten: Unsere Programmierer entwickeln immer kompliziertere Aufspürmechanismen; kommerzielle Anbieter versuchen, diese zu knacken. Die Pornobranche trickst am raffiniertesten. FOCUS: Auf welche Weise? Henzinger. Sie versucht etwa, unseren elektronischen Spürhund auf eine falsche Fährte zu locken: Wird der GoogleSuchroboter identifiziert, zeigen ihm Sexanbieter eine völlig harmlose Homepage an. Wenn unsere Nutzer aber später diese Seite aufrufen, landen sie auf einer Pornoseite. Es kostet uns viel Geld, diese ständigen Attacken abzuwehren. FOCUS: Auch das so genannte "unsichtbare Web"ist für Sie ein Problem. Laut Experten soll dieses 500-mal größer sein als die vergleichsweise mickrigen zwei Milliarden Websites, die die digitalen Schnüffelverfahren heutzutage erfassen können. Henzinger: Es ist bislang schwer, zum Beispiel auf wissenschaftliche Datenbanken zuzugreifen. Deren Betreiber sind aber dabei, eine Brücke zwischen Suchprogrammen und Archiven zu schlagen. Parallel dazu arbeitet Google - ähnlich wie Spezial-Dienstleister - an Mechanismen, die bei bestimmten Anfragen nur passende Quellen zum Thema durchforsten. In fünf bis zehn Jahren wird das Netz viel weiter erschlossen sein. Intelligente Suchdienste werden dann auf eine Frage nicht mehr eine Website, sondern eine im Internet recherchierte Antwort auswerfen.
-
Bieselin, T.-B.: Zielgruppenorientierte Websites für Bibliotheken Entwicklung von Internetangeboten auf der Grundlage von Nutzungsszenarien (2004)
0.00
0.00295703 = product of:
0.01182812 = sum of:
0.01182812 = weight(_text_:und in 2106) [ClassicSimilarity], result of:
0.01182812 = score(doc=2106,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.09795051 = fieldWeight in 2106, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2106)
0.25 = coord(1/4)
- Abstract
- Zur Erreichung einer für den Besucher optimal ausgerichteten Website sind wesentliche Aufgaben bereits in der Vorbereitungsphase zu erarbeiten, unter anderem Zielgruppenermittlung, Bedürfnisfeststellung sowie Strukturierung des Angebots. Eine gute oder auch weniger gelungene Umsetzung dieser Kriterien kann an Beispielen aus der Praxis am Besten veranschaulicht werden. Um eine ungefähre Vergleichbarkeit der Angebote zu erhalten, sind im Folgenden nur die Seiten von Öffentlichen Bibliotheken gleicher Größenklasse nach Bix verwendet worden, und zwar der Klasse 4 (15 000 bis 30 000 Einwohner). Hier ist die Notwendigkeit einer allgemeinen Verbesserung des virtuellen Angebots am meisten gegeben.
-
Pothe, A.: Nachgezählt : Wie groß ist das WWW? (2004)
0.00
0.00295703 = product of:
0.01182812 = sum of:
0.01182812 = weight(_text_:und in 3036) [ClassicSimilarity], result of:
0.01182812 = score(doc=3036,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.09795051 = fieldWeight in 3036, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=3036)
0.25 = coord(1/4)
- Content
- "Die verflixten dynamischen Seiten Viele Server erzeugen Seiten erst in dem Moment, in dem sie der Nutzer anfordert. Dabei greifen sie für die Inhalte auf Datenbanken zurück. Die dafür notwendigen Parameter werden bei der Anforderung der Seiten mit übermittelt. Für die Anforderung von WebSeiten kennt das HTTP-Protokoll zwei unterschiedliche Methoden - "GET" und "POST". Mit GET angeforderte dynamische Seiten erkennt man in der Regel leicht an den Parametern, die an die URL gehängt werden. Beispielsweise übergibt der Aufruf http://www.google.com/search?q=Beispiel an Google eine Suchanfrage (Parameter "q") nach dem Wort "Beispiel". Die Parameter sind durch ein Fragezeichen vom Seitennamen getrennt. Webserver können die Parameter aber auch verstecken, also ohne das Fragezeichen in der Adresse auswerten. Bei der Suchmaschine Fireball zum Beispiel zeigt die Seite http://suche.fireball.de/text/test/ dieselben Ergebnisse an wie die Seite http://suche.fireball.de/cgi-bin/pursuit?T query=test&cat=fbt loc&SITE=de Dynamische Seiten mit POSTParametern lassen sich nur schwer erkennen. Hier werden Daten nämlich nicht über die URL übergeben, sondern vom Browser in den Body der HTTPAnfrage geschrieben, wo sie für den Anwender üblicherweise nicht einsehbar sind. Aus diesem Grund lassen sich dynamische Seiten mit POST-Parametern auch nicht verlinken, da die POST-Parameter in einem normalen Link nicht mit übertragen werden. Die POST-Methode ermöglicht die Übertragung von größeren Datenmengen als GET. Da die Parameter nicht in der History stehen, bietet POST eine gewisse Sicherheit bei der Übertragung von heiklen Daten wie Kreditkartennummern. Dynamische Seiten machen das WWW unendlich groß. Das zeigt sich schon bei den Suchmaschinen, in deren Suchformulare beliebige Begriffe eingegeben werden können. Bei jedem neuen Begriff, bei der kleinsten Änderung der Suchdaten gibt die Suchmaschine eine andere Seite aus. Um genau diejenigen Seiten zu erfassen, die auch Suchrnaschinen indexieren können, bedarf es eines Kompromisses: Dynamische Seiten wurden nur gezählt, wenn sie nicht voraussetzen, dass für ihren Abruf ein Textfeld ausgefüllt wird. Sobald Seitengenerierungen aus Textfeldern unberücksichtigt bleiben, wird nur noch eine endliche Menge an Seiten untersucht. Seiten mit (sichtbaren wie unsichtbaren) GET-Parametern in der URL können Suchmaschinen dagegen indexieren. Bei der Untersuchung wurden dynamische Seiten mit sichtbaren Parametern ebenfalls nicht erfasst, sondern durch den Korrekturfaktor mit berücksichtigt."
-
Kleinz, T.: Wiki vs. Tron : Die deutsche Webseite der Internet-Enzyklopädie ist gesperrt (2006)
0.00
0.00295703 = product of:
0.01182812 = sum of:
0.01182812 = weight(_text_:und in 4176) [ClassicSimilarity], result of:
0.01182812 = score(doc=4176,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.09795051 = fieldWeight in 4176, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4176)
0.25 = coord(1/4)
- Content
- "Der Mann ist seit acht Jahren tot. Aber er sorgt posthum für Unruhe, denn der erbitterte Streit um seine Persönlichkeitsrechte eskaliert: Seit gestern ist die deutsche Internet-Adresse der Online-Enzyklopädie Wikipedia abgeschaltet. Die Eltern eines 1998 gestorbenen Berliner Hackers wollen die Nennung seines bürgerlichen Namens verhindern. Wikipedia wehrt sich juristisch. Wikipedia gilt heute als Institution im Internet. In fünf Jahren haben unzählige Freiwillige drei Millionen Artikel in über 100 Sprachen verfasst, die Enzyklopädie gilt als eine der 30 am meisten abgerufenen Webseiten. Doch unter der deutschen Adresse wikipedia.de ist seit gestern Stillstand. Die "Freunde des freien Wissens" werden da nur noch informiert, dass eine einstweilige Verfügung des Amtsgerichts Charlottenburg verhindere, die Nutzer von der deutschen Seite zu den Inhalten der Enzyklopädie weiterzuleiten. Diese Inhalte sind immer noch unter der internationalen Domain de.wikipedia.org zu erreichen, die Umleitung dorthin wurde aber vom Gericht verboten. "Postmortales Persönlichkeitsrecht" Streitpunkt ist die Nennung des bürgerlichen Namens des Berliner Hackers "Tron , der 1998 in Berlin tot aufgefunden worden war. Seine Eltern wollen verhindern, dass der Familienname des Hackers in der Internet-Enzyklopädie erwähnt wird. Sie berufen sich auf das "postmortale Persönlichkeitsrecht" ihres Sohnes, das durch die Nennung seines Namens verletzt werde. Das Berliner Amtsgericht gab gleich zwei einstweiligen Verfügungen statt: Die erste wurde bereits im Dezember gegen die in Florida ansässige Wikimedia Foundation ausgestellt, dem offiziellen Betreiber der Wikipedia. Die zweite Verfügung traf den Berliner Verein Wikimedia Deutschland: Der hat formal nichts mit dem Betrieb der Wikipedia zu tun, unterhält aber die deutsche Do- main, die zu den Wikipedia-Seiten umleitet. Wikipedia will sich wehren Derzeit bietet sich ein kurioses Bild: Zwar ist der volle Name des Hackers mittlerweile in fünfverschiedenen Sprachen in der Wikipedia zu lesen, auf der deutschen Webseite hingegen ist keiner der mehr als 300 000 deutschsprachigen Artikel mehr abrufbar. Wikimedia Deutschland will sich damit nicht abfinden. Der Berliner Rechtanwalt Thorsten Feldmann kündigt an: "Wir werden Widerspruch gegen die einstweilige Verfügung einlegen." Er will darlegen, dass die Nennung des bürgerlichen Namens des Hackers kein Verstoß gegen dessen Persönlichkeitsrechte darstellen. Für Wikipedia kommt der Rechtsstreit zu einer ungünstigen Zeit. Die Enzyklopädie war Ende 2005 ins Kreuzfeuer geraten, als ein Witzbold dem US-Journalisten John Seigenthaler in einem Wikipedia-Artikel Verstrickungen in den Mord an US-Präsident Kennedy unterstellte. Seitdem tobt der Streit um die Verlässlichkeit und die Verantwortung des Online-Lexikons. Der Berliner Rechtsstreit ist der erste Fall, in dem das gemeinnützige Projekt seine Grundsätze vor Gericht verteidigen muss."
-
Joint INIS/ETDE Thesaurus (Rev. 2) April 2007 (2007)
0.00
0.0025874013 = product of:
0.010349605 = sum of:
0.010349605 = weight(_text_:und in 644) [ClassicSimilarity], result of:
0.010349605 = score(doc=644,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.085706696 = fieldWeight in 644, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=644)
0.25 = coord(1/4)
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.3, S.103-104
-
Witschel, H.F.: Global and local resources for peer-to-peer text retrieval (2008)
0.00
0.0025874013 = product of:
0.010349605 = sum of:
0.010349605 = weight(_text_:und in 127) [ClassicSimilarity], result of:
0.010349605 = score(doc=127,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.085706696 = fieldWeight in 127, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=127)
0.25 = coord(1/4)
- Imprint
- Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik