Search (500 results, page 24 of 25)

  • × theme_ss:"Suchmaschinen"
  1. Lewandowski, D.: Was Google nicht kann, aber Yahoo (2004) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 3291) [ClassicSimilarity], result of:
          0.024900664 = score(doc=3291,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 3291, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3291)
      0.25 = coord(1/4)
    
    Abstract
    Die meisten Nutzer verwenden für ihre Recherchen ausschließlich Google. Allerdings zeigt sich gerade bei komplexeren Anfragen, dass diese Suchmaschine nicht immer am geeignetsten ist. Die Autorin Tara Calishain stellt in einem kostenlos verfügbaren Paper (http://www. researchbuzz.com/FourThingsFinal .pdf) vier Arten von Suchanfragen vor, die nicht mit Google, wohl aber mit Yahoo gestellt werden können. Vor allem für Webmaster sind die umfangreichen Möglichkeiten der Linksuche interessant. Für andere Profi-Rechercheure bieten sich bessere Möglichkeiten der Domainbeschränkung und die Möglichkeit, längere Suchanfragen zu formulieren.
  2. BWI: Suchen mit Microsoft : MSN Suche (2005) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 3317) [ClassicSimilarity], result of:
          0.024900664 = score(doc=3317,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 3317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3317)
      0.25 = coord(1/4)
    
    Content
    "Ab sofort steht Microsofts neu entwickelte Suchmaschine in der finalen Version in 24 Ländern und zehn Sprachen zur Verfügung: Die MSN-Suche soll auf einem Index mit mehr als fünf Milliarden Webdokumenten basieren. Zum Vergleich: Suchmaschinen-Marktführer Google greift auf rund 8 Millionen Webdokumente zu. MSN Search umfasst neben einer News- auch die Encarta-Suche. Damit ist ein kostenfreier Zugriff auf die Enzyklopädie Encarta Online möglich. Die Herkunft der Ergebnisse soll sich im Suchassistenten nach Land/Region, Sprache, Seite/Domain sowie Ergebnisreihenfolge eingrenzen lassen."
  3. Quaero: Google für Beamte : Suchmaschine für Europa (2006) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 5097) [ClassicSimilarity], result of:
          0.024900664 = score(doc=5097,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 5097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5097)
      0.25 = coord(1/4)
    
    Abstract
    Der große Trendsetter im Internet war Europa noch nie - beim Thema Suchmaschinen hat der Alte Kontinent sogar riesigen Aufholbedarf. Das soll sich ändern: Acht Jahre nach dem Start von Google wollen Frankreich und Deutschland eine eigene Suchmaschine entwickeln. Codename: Quaero (lateinisch: "Ich suche."). Die Feature-Liste des potenziellen Google-Konkurrenten liest sich imposant - eine automatisierte Video-Indizierung, das Wandeln von Sprache zu Text und eine Bilderkennung werden ebenso genannt wie die Beantwortung von natürlich formulierten Fragen. Die Idee zu Quaero gibt es seit einem Jahr, fertig ist aber noch nichts. Frankreich begann direkt nach den ersten Gesprächen die Arbeiten an Quaero - in Deutschland geriet das ambitionierte Projekt aber ins Stocken. Grund: die vorgezogenen Bundestags-Wahlen. Frankreichs Staatspräsident Jacques Chirac hat das Thema sogar in seiner Neujahrsansprache aufgegriffen. Insider vermuten: Damit wollte er die Deutschen unter Druck setzen. Gefruchtet haben die Worte anscheinend nicht: Zwar finden "im Bundeswirtschaftsministerium Gespräche mit verschiedenen Unternehmen" statt, so ein Sprecher des Ministeriums gegenüber CHIP. Doch "noch gibt es keinen Plan zur Finanzierung". Eigentlich soll die internationale Kooperation bei Quaero so ähnlich wie beim Airbus-Konsortium funktionieren: Viele Firmen aus Deutschland und Frankreich entwickeln einzelne Bausteine - am Ende wird alles zusammengefügt. Die fertige Suchmaschine soll Google wie das Bastelprojekt eines Erstklässlers erscheinen lassen - sofern Quaero überhaupt einmal erscheint. Denn auch die Unternehmen zieren sich: Empolis, eine Tochter des Bertelsmann-Konzerns legt beispielsweise viel Wert darauf, dass man "entgegen anders lautender Medienberichte bei dem Quaero-Projekt nicht die Gesamtführung" übernehme. Man prüfe lediglich, "ob eine Mitarbeit für das Unternehmen von Interesse ist". Die Zurückhaltung ist verständlich. Schließlich weiß bisher niemand, wem denn die zukünftige Suchmaschine gehören soll. Die Behörden und die beteiligten Firmen werden wohl Zugriff auf Quaero bekommen. Aber die Öffentlichkeit könnte außen vor bleiben. "Die Art des öffentlichen Zugangs ist noch unklar", ist aus dem Bundeswirtschaftsministerium zu hören. Denkbar wäre ein Zugriff gegen Gebühr. Unwahrscheinlich, dass Google vor einem solchen "Rivalen" Angst hat. Wäre auch unnötig, wie aus dem Umfeld der Quaero-Entwickler zu hören ist: "Kein Mensch braucht ein zweites Google."
  4. Jesdanun, A.: Streitbare Suchmaschine : Polar Rose ermöglicht Internet-Recherche mit Gesichtserkennung (2007) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 547) [ClassicSimilarity], result of:
          0.024900664 = score(doc=547,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 547, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=547)
      0.25 = coord(1/4)
    
    Abstract
    Probleme für den Schutz der Persönlichkeitsrechte wirft das Projekt einer schwedischen Firma auf, die eine Internet-Suchmaschine mit Gesichtserkennung entwickelt. Die Technik der Firma Polar Rose scannt öffentlich verfügbare Fotos ein, sortiert sie nach rund 90 verschiedenen Merkmalen und erstellt so eine Datenbank. Die Suchmaschine soll in der Lage sein, ein beliebiges Foto mit diesen Daten abzugleichen, die Identität der gezeigten Person zu ermitteln und eine Liste mit Web-Seiten zu liefern, auf denen diese Person zu sehen ist. Bei Tests. mit 10 000 Fotos habe es in 95 Prozent der Fälle eine zuverlässige Erkennung gegeben, sagt der Vorstandschef von Polar Rose, Nikolaj Nyholm. Allerdings schränkt er ein, dass die Genauigkeit mit wachsender Datenbasis vermutlich geringer wird, weil bei Millionen und vielleicht Milliarden von Personenfotos die Wahrscheinlichkeit zunimmt, dass sich zwei oder mehr Personen sehr ähnlich sehen. Deshalb sollen die Nutzer des geplanten Internet-Dienstes selbst Informationen beisteuern, etwa die Namen von abgebildeten Personen. Polar Rose verfolgt das Konzept, die zahllosen Fotos, die sich etwa bei Flickr oder Myspace finden, besser durchsuchbar zu machen, als bei der herkömmlichen Bildersuche. Auch Personen, die nur im Hintergrund eines Fotos zu sehen sind, sollen auf diese Weise erfasst werden. Was aber ist, wenn Arbeitgeber, Polizei oder misstrauische Partner auf diese Weise die Anwesenheit einer Person an einem bestimmten Ort aufdecken, die eigentlich vertraulich bleiben sollte? "Ich glaube nicht, dass wir da schon alle Antworten haben", räumt Nyholm ein. Der Leiter der Organisation Privacy International, Simon Davies, sieht sich durch Techniken wie die von Polar Rose in seiner Einschätzung bestätigt, dass es Grenzen für die Internet-Suche geben müsse. Andernfalls werde die Suche im Internet in Dimensionen vorstoßen, "die unendlich mächtiger sind, als wir es uns jemals vorstellen konnten". Davies fordert eine Debatte über eine Begrenzung der Internet-Suche und über ein Mitspracherecht von einzelnen Personen bei der Nutzung ihrer Daten. Die Verfügbarkeit von Fotos im Internet sei kein Freibrief für massenhafte Aufbereitung in Datenbanken.
  5. Chakrabarti, S.; Dom, B.; Kumar, S.R.; Raghavan, P.; Rajagopalan, S.; Tomkins, A.; Kleinberg, J.M.; Gibson, D.: Neue Pfade durch den Internet-Dschungel : Die zweite Generation von Web-Suchmaschinen (1999) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 3) [ClassicSimilarity], result of:
          0.024900664 = score(doc=3,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 3, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=3)
      0.25 = coord(1/4)
    
    Content
    Ausnutzen der Hyperlinks für verbesserte Such- und Findeverfahren; Darstellung des HITS-Algorithmus
  6. Ball, R.: "Wikia Search" : eine neue Suchmaschine für Bibliotheken? (2008) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 4007) [ClassicSimilarity], result of:
          0.024900664 = score(doc=4007,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 4007, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4007)
      0.25 = coord(1/4)
    
    Abstract
    Bereits im Dezember 2006 wurde die Web-Suchmaschine von Wikipedia, damals noch unter dem Arbeitstitel "Wikiasari", angekündigt und wurde von der Fachwelt zwischenzeitlich als größte Sensation gehandelt. Im April 2007 bezeichnete das amerikanische Magazin "Fast Company" die neue Suchmaschine gar als "Google's" schlimmsten Albtraum. Doch erst am 7. Januar 2008 wurde die Alpha-Version für die Öffentlichkeit freigegeben.
  7. Werner, K.: das Confirmation/Disconfirmation-Paradigma der Kundenzufriedenheit im Kontext des Information Retrieval : Größere Zufriedenheit durch bessere Suchmaschinen? (2010) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 4016) [ClassicSimilarity], result of:
          0.024900664 = score(doc=4016,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 4016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4016)
      0.25 = coord(1/4)
    
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.385-396
  8. Deep Search : Politik des Suchens jenseits von Google; Deep Search-Konferenz ; (Wien) : 2008.11.08; eine Veröffentlichung des World-Information Institute (2009) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 15) [ClassicSimilarity], result of:
          0.024900664 = score(doc=15,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 15, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=15)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen wie Google stehen im Zentrum unseres digitalen Lebens. Hinter ihrem einfachen Interface verbirgt sich jedoch eine politische Philosophie in Form von komplexen digitalen Codes. Auf dem Spiel steht nichts weniger als die Frage, wie wir individuell und kollektiv etwas über die Welt in Erfahrung bringen werden.
    Content
    Inhalt: - Geschichte Paul Duguid: Die Suche vor grep: Eine Entwicklung von Geschlossenheit zu Offenheit? Robert Darnton: Die Bibliothek im Informationszeitalter: 6000 Jahre Schrift Geert Lovink: Die Gesellschaft der Suche: Fragen oder Googeln Katja Mayer: Zur Soziometrik der Suchmaschinen: Ein historischer Überblick der Methodik - Grundrechte Claire Lobet-Maris: Vom Vertrauen zur Spurenauswertung: Eine neue Sicht der Technikfolgenabschätzung loris van Hoboken: Suchmaschinen-Gesetzgebung und die Frage der Ausdrucksfreiheit: Eine europäische Perspektive Felix Stalder, Christine Mayer: Der zweite Index: Suchmaschinen, Personalisierung und Überwachung
    - Macht Theo Röhle: Die Demontage der Gatekeeper: Relationale Perspektiven zur Macht der Suchmaschinen Bernhard Rieder: Demokratisierung der Suche? Von der Kritik zum gesellschaftlich orientierten Design Matteo Pasquinelli: Googles PageRank: Diagramm des kognitiven Kapitalismus und Rentier des gemeinsamen Wissens Konrad Becker: Die Macht der Klassifizierung: Abgründe des Wissens an den Klippen der Ordnung - Sichtbarkeit Richard Rogers: Zur Frage der Vergoogelung: Hin zu einer unkritisierbaren Maschine? Metahaven: Periphere Kräfte: Zur Relevanz von Marginalität in Netzwerken Lev Manovich: Auf den Spuren der globalen digitalen Kulturen: Kulturanalytik für Anfänger
  9. Morville, P.: Ambient findability : what we find changes who we become (2005) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 312) [ClassicSimilarity], result of:
          0.024900664 = score(doc=312,freq=32.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 312, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.015625 = fieldNorm(doc=312)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 57(2006) H.3, S.177-178 (D. Lewandowski): "Wohl unbestritten ist, dass die Suche in Informationsbeständen eine immer größere Bedeutung erhält. Wir suchen nicht nur noch explizit, indem wir ein Informationssystem anwählen und dort eine Suche absetzen, sondern verwenden Suchfunktionen innerhalb von Programmen, auf Websites, innerhalb des Betriebssystems unseres Computers oder sogar ziemlich unbewusst, indem wir Informationen maßgeschneidert aufgrund einer einmal hinterlegten Suche oder eines automatisch erstellten Suchprofils erhalten. Man kann also in der Tat davon sprechen, dass wir von der Suche umgeben werden. Das ist mit dem Konzept der "Ambient Findability" gemeint. Angelehnt ist diese Bezeichnung an den Begriff der "Ambient Music" (in den 70er Jahren durch Brian Eno geprägt), die den Hörer umgibt und von ihm oft gar nicht aktiv wahrgenommen wird. Um eine Vorstellung von dieser Musik zu bekommen, eignet sich vielleicht am besten der Titel einer Platte eben von Brian Eno: "Music for Airports". Peter Morville, bekannt als Co-Autor des empfehlenswerten Buchs "Information Architecture for the World Wide Web"', hat sich nun mit der Veränderung der Suche auseinandergesetzt. Sein Buch bedient sich in ganz unterschiedlichen Disziplinen, um die Prozesse des Suchens, Stöberns und Findens aufzuzeigen. So finden sich Betrachtungen über die Orientierung des Menschen in unbekannten Umgebungen, über die Interaktion mit Informationssystemen, über das soziale Verhalten der Web-Nutzer (Stichworte: Content-Tagging, Folksonomies, Social Networking) und über technische Veränderungen durch die Verfügbarkeit von Informationssystemen in allen Lebenskontexten, vor allem auch über mobile Endgeräte. Das Buch ist in sieben Kapitel gegliedert. Das erste, "Lost and Found" betitelt, bietet auf wenigen Seiten die Definitionen der zentralen Begriffe ambient und findability, erläutert kurz das Konzept der Information Literacy und zeigt, dass die bessere Auffindbarkeit von Informationen nicht nur ein schöner Zusatznutzen ist, sondern sich für Unternehmen deutlich auszahlt.
    Das zweite Kapitel ("A Brief History of Wayfinding") beschreibt, wie Menschen sich in Umgebungen zurechtfinden. Dies ist insofern interessant, als hier nicht erst bei Informationssystemen oder dem WWW begonnen wird, sondern allgemeine Erkenntnisse beispielsweise über die Orientierung in natürlichen Umgebungen präsentiert werden. Viele typische Verhaltensweisen der Nutzer von Informationssystemen können so erklärt werden. So interessant dieses Thema allerdings ist, wirkt das Kapitel leider doch nur wie eine Zusammenstellung von Informationen aus zweiter Hand. Offensichtlich ist, dass Morville nicht selbst an diesen Themen geforscht hat, sondern die Ergebnisse (wenn auch auf ansprechende Weise) zusammengeschrieben hat. Dieser Eindruck bestätigt sich auch in weiteren Kapiteln: Ein flüssig geschriebener Text, der es jedoch an einigen Stellen an Substanz fehlen lässt. Kapitel drei, "Information Interaction" beginnt mit einem Rückgriff auf Calvin Mooers zentrale Aussage aus dem Jahre 1959: "An information retrieval system will tend not to be used whenever it is more painful and troublesome for a customer to have information than for him not to have it." In der Tat sollte man sich dies bei der Erstellung von Informationssystemen immer vergegenwärtigen; die Reihe der Systeme, die gerade an dieser Hürde gescheitert sind, ist lang. Das weitere Kapitel führt in einige zentrale Konzepte der Informationswissenschaft (Definition des Begriffs Information, Erläuterung des Information Retrieval, Wissensrepräsentation, Information Seeking Behaviour) ein, allerdings ohne jeden Anspruch auf Vollständigkeit. Es wirkt vielmehr so, dass der Autor sich die gerade für sein Anliegen passenden Konzepte auswählt und konkurrierende Ansätze beiseite lässt. Nur ein Beispiel: Im Abschnitt "Information Interaction" wird relativ ausführlich das Konzept des Berrypicking nach Marcia J. Bates präsentiert, allerdings wird es geradezu als exklusiv verkauft, was es natürlich bei weitem nicht ist. Natürlich kann es nicht Aufgabe dieses Buchs sein, einen vollständigen Überblick über alle Theorien des menschlichen Suchverhaltens zu geben (dies ist an anderer Stelle vorbildlich geleistet worden'), aber doch wenigstens der Hinweis auf einige zentrale Ansätze wäre angebracht gewesen. Spätestens in diesem Kapitel wird klar, dass das Buch sich definitiv nicht an Informationswissenschaftler wendet, die auf der einen Seite mit den grundlegenden Themen vertraut sein dürften, andererseits ein wenig mehr Tiefgang erwarten würden. Also stellt sich die Frage - und diese ist zentral für die Bewertung des gesamten Werks.
    Für wen wurde dieses Buch eigentlich geschrieben? Der Verlag, sonst für eher praktisch orientierte Computerbücher bekannt, ordnet es auf dem Umschlag den Bereichen "Marketing" sowie "Technology & Society" zu. Für letztere Zielgruppe ist es aber sicher weniger geeignet, da auch der gesellschaftliche Hintergrund zu dünn ist. So bleibt der Bereich Marketing oder doch eher die Zielgruppe derjenigen, die ohne fachbezogenes Studium in den Bereich Informationssysteme bzw. Informationsarchitektur "hineingeschlittert" sind. Für diese mag auch das Kapitel über "Information Interaction" (bedingt) geeignet sein, bietet es doch zumindest einen gut lesbaren Einblick in einige zentrale Punkte. Das vierte Kapitel ("Intertwingled") beschreibt den Zugriff auf Informationen mittels verschiedener Erdgeräte in unterschiedlichen Kontexten. Es geht hier neben neuen Ansätzen des Wegefindens, um lokalisierbare Objekte und Kleidung, in die Informationstechnologie mit eingebaut ist. Dabei handelt es sich um einen guten (und vor allem beispielreichen) Überblick der aufkommenden Technologien. Kapitel s behandelt die Integration von Push- und PullAnsätzen, wobei die zentrale Aussage lautet, dass beide Ansätze immer mehr zusammenwachsen und die Entscheidung für den einen oder den anderen Ansatz vom Nutzer spontan gemäß seinen Informationsbedürfnissen getroffen wird. In diesem Kapitel wird auch das Thema Personalisierung abgehandelt und auf die bei der Personalisierung entstehenden Probleme eingegangen. Lange Zeit wurde Personalisierung schlicht als ein Verfahren gesehen, aus einmal erfassten Nutzerdaten Empfehlungen abzuleiten. Dass dies nicht problemlos möglich ist, erläutert Morville an einigen Punkten. Etwas bedauerlich ist hier, dass die Erläuterungen sehr knapp gehalten sind. Gerade zu diesem interessanten Thema hätte man gerne mehr Details erfahren.
    Im Kapitel über das "Sociosemantic Web" werden die groben Grundzüge der Klassifikationslehre erläutert, um dann ausführlich auf neuere Ansätze der Web-Erschließung wie Social Tagging und Folksonomies einzugehen. Auch dieses Kapitel gibt eher einen Überblick als den schon Kundigen vertiefende Informationen zu liefern. Das letzte Kapitel widmet sich schließlich der Art, wie Entscheidungen getroffen werden, der Network Culture, dem Information Overload, um schließlich zu den "Inspired Decisions" zu gelangen - Entscheidungen, die sowohl auf "sachlichen Informationen" (also den klassischen Zutaten der "informed decisions") als auch aus aus Netzwerken stammenden Informationen wie etwa Empfehlungen durch Freunde oder Community-Mitglieder irgendeiner Art gewonnen werden. Fasst man zusammen, so ist an Morvilles Text besonders bemerkenswert, dass nach einigen Jahren, in denen die Suche im Web als ein Problem der Suche in unstrukturierten Daten angesehen wurde, nun wieder verstärkt Erschließungsansätze, die auf klassische Erschließungsinstrumente zurückgreifen, propagiert werden. Zwar sollen sie nicht in ihrer ursprünglichen Form angewandt werden, da den Nutzern nicht zuzumuten ist, sich mit den entsprechenden Regeln auseinanderzusetzen, aber auch hinter der auf den ersten Blick zumindest chaotisch wirkenden Folksonomy ist das Prinzip der Klassifikation zu erkennen. Um die modernen Ansätze erfolgreich zu machen, bedarf es aber dringend Information Professionals, die das "beste aus beiden Welten" verbinden, um moderne, für den Nutzer optimale Informationssysteme zu schaffen. Für die Gesamtbewertung des Buchs gelten die bereits zu einzelnen Kapitels angeführten Kritikpunkte: In erster Linie bleibt das Buch zu sehr an der Oberfläche und wirkt irgendwie "zusammengeschrieben" anstatt als Ergebnis der tiefgreifenden Beschäftigung mit dem Thema. Als eine Einführung in aufkommende Technologien rund um die Suche ist es aber durchaus geeignet - gut lesbar ist der Text auf jeden Fall.
  10. Lewandowski, D.: Evaluierung von Suchmaschinen (2011) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 349) [ClassicSimilarity], result of:
          0.024900664 = score(doc=349,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 349, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=349)
      0.25 = coord(1/4)
    
    Abstract
    Die Evaluierung von Suchmaschinen ist von hoher Bedeutung, sowohl wenn es um die Überprüfung der Leistungsfähigkeit selbst entwickelter Systeme geht als auch, um die Qualität der bekannten Suchdienste untereinander zu vergleichen. In diesem Kapitel wird der Standardaufbau von Tests zur Messung der Retrievaleffektivität von Suchmaschinen beschrieben, um darauf aufbauend systematisch die Grenzen dieser Tests aufzuzeigen und erste Lösungsmöglichkeiten zu diskutieren. Es werden Hinweise für die Praxis gegeben, wie sich Retrievaltests mit vertretbarem Aufwand gestalten lassen, die trotzdem zu verwertbaren Ergebnissen führen.
  11. Junker, M.: Intelligente Suchmaschinen : DFKI koordiniert Projekt für Dokumenterschließungssysteme der nächsten Generation (2000) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 625) [ClassicSimilarity], result of:
          0.024900664 = score(doc=625,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=625)
      0.25 = coord(1/4)
    
    Abstract
    Das DFKI koordiniert das vom BMBF mit rund 20 Mio Mark geförderte Verbundprojekt "Adaptive READ". Ehrgeizige Zielsetzung des am 1. März gestarteten Projekts ist die Entwicklung von Dokumenterschließungssystemen der nächsten Generation. Insgesamt arbeiten 11 Partner aus Wissenschaft und Industrie - davon 7 führende IT-Unternehmen - an Systemen, die sich weitgehend automatisch an konkrete Informationsbedürfnisse eines Unternehmens oder eines Benutzers anpassen.
  12. Jezior, T.: Adaption und Integration von Suchmaschinentechnologie in mor(!)dernen OPACs (2013) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 2222) [ClassicSimilarity], result of:
          0.024900664 = score(doc=2222,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 2222, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2222)
      0.25 = coord(1/4)
    
  13. ¬Der Google Hummingbird Algorithmus : semantisch-holistische Suche (2013) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 2521) [ClassicSimilarity], result of:
          0.024900664 = score(doc=2521,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 2521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2521)
      0.25 = coord(1/4)
    
    Abstract
    Im September 2013 verkündete Google den schon einen Monat vorher ausgerollten völlig neuen Algorithmus mit dem Namen "Hummingbird". Der Name wurde bewusst gewählt. Schließlich zeichnet den "Kolibri" seine äußerst schnelle und dabei doch präzise Methodik aus. Searchmetrics hat analysiert, wie sich der neue Algorithmus auf die SERPs auswirkt. Ergebnis: Die Diversität der Suchergebnisse hat abgenommen. Google zeigt zunehmend "gleichere" Resultate für semantisch äquivalente Queries an.
  14. Sünkler, S.; Kerkmann, F.: How to do ... ? : Konzeption einer Spezialsuchmaschine für Tutorials (2016) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 2570) [ClassicSimilarity], result of:
          0.024900664 = score(doc=2570,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 2570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=2570)
      0.25 = coord(1/4)
    
    Abstract
    Das übergeordnete Ziel des Projektes bestand darin, eine hochschuleigene Suchmaschine zu konzipie ­ ren und diese ausgehend von einer Ideenskizze über ein theoretisches Konzept hin zu einem lauffähigen Alpha ­ Prototyp umzusetzen, der die theoretischen Überlegungen in Ansätzen praktisch nutzbar machen sollte.
  15. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 431) [ClassicSimilarity], result of:
          0.024900664 = score(doc=431,freq=8.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 431, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.25 = coord(1/4)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  16. Advanced online media use (2023) 0.01
    0.006225166 = product of:
      0.024900664 = sum of:
        0.024900664 = weight(_text_:und in 954) [ClassicSimilarity], result of:
          0.024900664 = score(doc=954,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19590102 = fieldWeight in 954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=954)
      0.25 = coord(1/4)
    
    Abstract
    Ten recommendations for the advanced use of online media. Mit Links auf historische und weiterführende Beiträge.
  17. Levy, S.: In the plex : how Google thinks, works, and shapes our lives (2011) 0.01
    0.006089954 = product of:
      0.024359817 = sum of:
        0.024359817 = weight(_text_:und in 9) [ClassicSimilarity], result of:
          0.024359817 = score(doc=9,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.19164601 = fieldWeight in 9, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=9)
      0.25 = coord(1/4)
    
    BK
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    05.20 / Kommunikation und Gesellschaft
    Classification
    54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
    05.20 / Kommunikation und Gesellschaft
    Footnote
    Deutsche Übersetzung als: Googlenomics : Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg, Neckar ; mitp/bhv ; 2011. Rez. in: JASIST 62(2011) no.12, S.2540-2543 (C. Leslie)
  18. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.00571818 = product of:
      0.02287272 = sum of:
        0.02287272 = weight(_text_:und in 5987) [ClassicSimilarity], result of:
          0.02287272 = score(doc=5987,freq=12.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.17994657 = fieldWeight in 5987, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
      0.25 = coord(1/4)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  19. Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002) 0.01
    0.0055023213 = product of:
      0.022009285 = sum of:
        0.022009285 = weight(_text_:und in 569) [ClassicSimilarity], result of:
          0.022009285 = score(doc=569,freq=16.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.17315367 = fieldWeight in 569, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=569)
      0.25 = coord(1/4)
    
    Abstract
    Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
    Content
    "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
    Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
    Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
  20. dpa/fr: Google scannt nun Zeitungen : Schon Millionen Artikel im "Online-Archiv" (2008) 0.01
    0.0055023213 = product of:
      0.022009285 = sum of:
        0.022009285 = weight(_text_:und in 2224) [ClassicSimilarity], result of:
          0.022009285 = score(doc=2224,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.17315367 = fieldWeight in 2224, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2224)
      0.25 = coord(1/4)
    
    Content
    "Der immer noch als "Internet-Suchmaschine" firmierende Mega-Konzern Google legt nun auch seine Hände auf Zeitungen. Er will ein Online-Archiv für Zeitungen aus aller Welt aufbauen. Nutzer sollen Artikel durchsuchen und Seiten im Original-Layout samt Fotos und Anzeigen aufrufen können, erklärte die Firma am Montag bei der Technologie-Konferenz Techcrunch 50 in San Francisco. Man habe bereits Millionen von Artikeln eingescannt. Wie viele Zeitungen derzeit schon mitarbeiten, teilte Google nicht mit. Die Archivierung sei Teil der Strategie, "Offline-Inhalte in das Internet zu bringen", sagte Google-Vizepräsidentin Marissa Mayer. Man wolle Lesern "helfen", von der Lokalzeitung bis zum größten überregionalen Blatt "alle zu finden", hieß es im offiziellen Blog des Konzerns. Anders als bei der Digitalisierung von Büchern will man bei dem Zeitungsprojekt die Zustimmung der Verleger einholen. Die Kosten fürs Einscannen trägt Google, denn man spekuliert auf eine lukratives Geschäft durch die Anzeigen, die man neben den Suchergebnissen platzieren will. Die Verleger sollen einen - von Mayer aber nicht bezifferten - Anteil des Umsatzes erhalten. Der Bundesverband Deutscher Zeitungsverleger (BDZV) verweist darauf, dass die Verlage gefragt würden, ob sie der Google-Nutzung zustimmen. Für einige Blätter könne die Zusammenarbeit interessant sein - gleichwohl würden die Inhalte "aus der Hand gegeben", sagte eine BDZV-Sprecherin."

Years

Languages

  • d 463
  • e 38
  • More… Less…

Types

  • a 401
  • m 54
  • el 51
  • x 13
  • s 9
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications