-
Sander-Beuermann, W.; Yanoff, S.: Internet: kurz und fündig : Einstieg und schnelle Orientierung im weltgrößten Computernetz (1995)
0.01
0.013710892 = product of:
0.054843567 = sum of:
0.054843567 = weight(_text_:und in 5290) [ClassicSimilarity], result of:
0.054843567 = score(doc=5290,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.4848303 = fieldWeight in 5290, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.109375 = fieldNorm(doc=5290)
0.25 = coord(1/4)
-
Sander-Beuermann, W.: "Gemeinnütziger Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissens-Zugangs" gegründet (2004)
0.01
0.010387569 = product of:
0.041550275 = sum of:
0.041550275 = weight(_text_:und in 3070) [ClassicSimilarity], result of:
0.041550275 = score(doc=3070,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.3673144 = fieldWeight in 3070, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3070)
0.25 = coord(1/4)
- Content
- "Am 5. Juli 2004 ist in Hannover der "Gemeinnützige Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" gegründet worden. Auf der Website http://suma-ev.de sind die ersten Informationen zu finden. In der Presseerklärung heißt es: "Der "Verein zur Förderung der Suchmaschinentechnologie und des freien Wissenszugangs" sieht in der Machtposition einzelner weniger Unternehmen eine Gefährdung des freien Zugangs zum Wissen. Denn dieser Zugang erfolge heutzutage zu einem großen Teil über die Suchmaschinen des Internets, sagt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors am Regionalen Rechenzentrum, Uni-Hannover und ebenfalls Gründungsmitglied des Vereins. Diese Suchmaschinen hätten damit eine Schlüsselrolle in der Informationsgesellschaft übernommen. Suchmaschinen kontrollieren unter anderem: - welche Informationen verfügbar sind, - welche Informationen, wann und von welchem Rechner aus abgerufen wurden, - in welcher Reihenfolge und damit Bewertung die Ergebnisse einer Recherche beim Nutzer angezeigt werden (Ranking). Gerade die Reihenfolge der Ergebnisse ist von außerordentlich hohem kommerziellen Interesse. Diese Bewertung sollte jedoch an der Sache orientiert und dem gesellschaftlichem Interesse verpflichtet sein. Sie hätte vor allem unabhängig von Interessen einzelner Unternehmen und Parteien zu erfolgen, so die Idee des neuen Vereins. Wenn sich in einer solchen Machtposition ein Monopol bildet, könnte obendrein ein derzeit noch kostenlos verfügbarer Dienst kostenpflichtig gemacht werden. Wünschenswerte Weiterentwicklungen werden mangels Konkurrenz verhindert. Diese Situation ist gefährlich für die Informationsgesellschaft. Hier müssen Alternativen offen gehalten werden, die bereits allein durch ihre Struktur und Organisation Monopolbildung unmöglich machen."
-
Sander-Beuermann, W.: Förderpreis Suchmaschinen : SuMa Awards 2008 (2007)
0.01
0.009160974 = product of:
0.036643896 = sum of:
0.036643896 = weight(_text_:und in 6025) [ClassicSimilarity], result of:
0.036643896 = score(doc=6025,freq=14.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.32394084 = fieldWeight in 6025, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=6025)
0.25 = coord(1/4)
- Content
- "Der SuMa-eV vergibt zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) die »SuMa Awards 2008« als neue Förderpreise für Suchmaschinen. Die SuMa Awards sprechen Programmierer, Künstler, Schriftsteller, Journalisten, Juristen, Wirtschaftswissenschaftler, Soziologen, Bibliothekare, Archivare, Mediziner, Eltern und jedem an, die/der die Veränderungen durch und den Einfluss von Suchmaschinen in seinem Umfeld oder für unsere Gesellschaft verarbeiten will. Eingereichte Arbeiten können sich sowohl mit praktischen als auch theoretischen Aufgabenstellungen und Lösungen im Bereich der SuchmaschinenTechnologie beschäftigen. Sie können aber genauso gesellschaftliche, wirtschaftliche, künstlerische, gesundheitliche oder andere Auswirkungen von Suchmaschinen-Anwendungen darstellen. Eine Jury wird aus den eingereichten Arbeiten die drei Besten auswählen. Diese werden: - zum SuMa-Kongress 2008 vorgestellt, - jeweils mit einem Preisgeld zwischen 2.000 und 3.000 Euro prämiert, - vom SuMa-eV im WWW präsentiert und technisch unterstützt. Die eingereichten Arbeiten müssen neu sein. Die Jury wählt die Preise in einem zweistufigen Verfahren aus: - Einreichen einer Kurzbeschreibung an den SuMa-eV sobald als möglich, spätestens aber bis zum 31.5.2008 (ca.1-2 Seiten DIN A4). - Aufgrund dieser Kurzbeschreibung entscheidet die Jury, ob und in welcher Form die Arbeit angenommen wird. Der endgültige Abgabetermin der Arbeit ist der 30.6.2008. - Die drei besten Arbeiten werden im Rahmen des nächsten SuMa-eV Kongresses im September 2008 präsentiert."
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.6, S.354
-
Sander-Beuermann, W.; Anders, S.A.: "Besser den Marktführer meiden" : Experte warnt vor Datenhunger im Netz (2009)
0.01
0.007834795 = product of:
0.03133918 = sum of:
0.03133918 = weight(_text_:und in 2873) [ClassicSimilarity], result of:
0.03133918 = score(doc=2873,freq=16.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27704588 = fieldWeight in 2873, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2873)
0.25 = coord(1/4)
- Content
- "Herr Sander-Beuermann, welche Suchmaschine nutzen Sie? MetaGer natürlich, weil ich weiß, was dahinter steckt und ich ihr voll vertrauen kann. Und weil ich immer das finde, was ich suche. .und weil Sie MetaGer an der Uni Hannover selbst entwickelt haben. Ja, deshalb weiß ich ja auch, was bei einer Suchabfrage im Hintergrund passiert. Bei anderen Suchmaschinen wissen die User das meist nicht. Jede Suchmaschine kann Nutzungsdaten protokollieren, und die großen werden das sicher auch tun. Es ist völlig offen, was dann mit diesen Daten passiert. Bei Benutzerzahlen von mehreren hundert Millionen in Kombination mit Erkenntnissen aus weiteren Online-Diensten können Informationen aus dem Surfverhalten gezogen werden, an die man sonst nie kommen würde. Etwa für Marktanalysen oder die Erhebung von Kaufverhalten. Was kann Google über mich persönlich erfahren? Informationen über einzelne Personen kann Google nur gewinnen, wenn sie neben der Suchmaschine auch andere Google-Tools nutzen, bei denen sie sich persönlich anmelden. Etwa Google Mail oder die Desktop-Werkzeuge von Google. Diese Informationen könnte Google kombinieren und daraus seine Schlüsse ziehen. Ist Bing eine Alternative? Durchaus. Die Qualität ist konkurrenzfähig, und es gibt bei Microsoft nicht die Fülle weiterer Dienste wie bei Google. Wenn aber das Windows-Betriebssystem die IP-Adresse an Microsoft übermitteln würde, wäre das enorm gefährlich. Diese Verbindung besteht aber meines Wissens nicht. Wie kann man also das Internet durchsuchen, ohne selbst durchsucht zu werden? Am besten sollten User sowohl beim Betriebssystem als auch bei den Suchmaschinen nicht den Marktführer benutzen. Und natürlich empfehle ich Suchmaschinen, die IP-Adressen nicht mitschreiben, wie zum Beispiel unser MetaGer oder auch Ixquick oder Scroogle. Die liefern gute Ergebnisse und sind im Hinblick auf den Datenschutz die bessere Alternative."
-
Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005)
0.01
0.0077424366 = product of:
0.030969746 = sum of:
0.030969746 = weight(_text_:und in 3245) [ClassicSimilarity], result of:
0.030969746 = score(doc=3245,freq=40.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.27378 = fieldWeight in 3245, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=3245)
0.25 = coord(1/4)
- Abstract
- Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
- Content
- Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
-
Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005)
0.01
0.005997266 = product of:
0.023989065 = sum of:
0.023989065 = weight(_text_:und in 3490) [ClassicSimilarity], result of:
0.023989065 = score(doc=3490,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.21206908 = fieldWeight in 3490, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3490)
0.25 = coord(1/4)
- Abstract
- Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
-
Sander-Beuermann, W.: Generationswechsel bei MetaGer : ein Rückblick und Ausblick (2019)
0.01
0.0058760964 = product of:
0.023504386 = sum of:
0.023504386 = weight(_text_:und in 4993) [ClassicSimilarity], result of:
0.023504386 = score(doc=4993,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.20778441 = fieldWeight in 4993, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4993)
0.25 = coord(1/4)
- Issue
- Teil 1: Von ersten Internet-Pionieren bis zu Meta-Suchmaschinen [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=633&wysijap=subscriptions&user_id=1045]. Teil 2: Was weiter gelten muss: Freier Wissenszugang, Privatsphäre und Schutz vor Datenkraken! [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=635&wysijap=subscriptions&user_id=1045]
-
Sander-Beuermann, W.: Findemaschinen: Level3 : Themenorientierte Suchmaschinen (1998)
0.00
0.004847532 = product of:
0.019390129 = sum of:
0.019390129 = weight(_text_:und in 2901) [ClassicSimilarity], result of:
0.019390129 = score(doc=2901,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17141339 = fieldWeight in 2901, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2901)
0.25 = coord(1/4)
- Abstract
- Ohne Suchmaschinen ist das WWW kaum noch die Hälfte wert. die Crux mit den Suchmaschinen kennt trotzdem jeder: Entweder das Gesuchte ist auf der gewählten Suchmaschine (zufällig?) gerade nicht erfaßt, oder Suchende werden von der Menge des Gefundenen 'erschlagen' - wesentlich mehr als 100 'Treffer' sind sinnlos, da unüberschaubar. Die Forderungen an eine hochwertige Suche müssen daher heißen: Die Suchmaschine muß ein definiertes Gebiet vollständig absuchen, und die Ergebnisse müssen für Suchende qualitativ hochwertig sein. Das vollständige Absuchen darf dabei trotzdem nicht zu unüberschaubar langen Trefferlisten führen. Die Kombination dieser beiden Forderungen wird in einem Teilbereich des DFN-Expo Projektes unter dem Stichwort 'Level3' untersucht. Level3 erlaubt die Generierung spezieller Suchmaschinen für definierte, thematisch eingegrenzte Sachgebiete