-
Büssow, J.; Tauss, J.; Scheithauer, I.; Bayer, M.: ¬Ein Kampf gegen den Rechtsextrimismus - oder gegen das Internet? : Der Düsseldorfer Regierungspräsident Jürgen Büssow und der Medienexperte Jörg Tauss (beide SPD) streiten über Sperren und Filter für das Web (2002)
0.01
0.008755294 = product of:
0.035021175 = sum of:
0.035021175 = weight(_text_:und in 2738) [ClassicSimilarity], result of:
0.035021175 = score(doc=2738,freq=70.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2899418 = fieldWeight in 2738, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2738)
0.25 = coord(1/4)
- Content
- "Herr Büssow, Sie haben nordrhein-westfälische Internetfirmen, die Surfern den Onlinezugang ermöglichen, angewiesen, bestimmte Webseiten zu sperren. Warum? - Büssow: Nach dem Mediendienste-Staatsvertrag sind wir verpflichtet, bei Angeboten einzugreifen, die das Strafgesetzbuch verbietet - Volksverhetzung etwa oder Diskriminierung von Minderheiten. Provider, die die Technik zum Anbieten von Seiten bereithalten, haben zwar eine stärkere Verantwortung als Firmen, die ihren Kunden den Weg ins Netz ermöglichen. Aber viele nationalsozialistischen Seiten liegen in den USA Dort sind sie erlaubt, weil sie unter das US-Recht auf freie Meinungsäußerung fallen. Bei uns sind sie strafbewehrt. In diesen Fällen bitten wir die Zugangsprovider, die Seiten zu sperren. - Das Bitten klingt so freundlich. - Büssow: Ja, erst einmal ist es auch freundlich. Viele Provider folgten uns zunächst. Dann kam der Eco-Verband und sagte, Zugangsanbieter hätten nur die Funktion von Briefträgern - und die seien nicht für den Inhalt von geschlossenen Briefen verantwortlich, sondern hätten nur den Transport vorzunehmen. Aber es handelt sich hier nicht um geschlossene Briefe. Manche halten uns vor, wir dürften im globalen Netz eine globale Kommunikation nicht verhindern. Das würde bedeuten, dass wir im Internet einen anderen Rechtszustand haben als offline. Wir müssten dann ins Strafgesetzbuch schreiben: Diese Bestimmung, Volksverhetzung etwa, gilt nicht im Internet. Das hat der Deutsche Bundestag bislang aber nicht getan. - Soll das Strafgesetzbuch nur offline gelten? - Tauss: Überhaupt nicht. Im Ziel bin ich mit Jürgen Büssow völlig einig: Selbstverständlich sind Kriminelle und Kriminalität zu bekämpfen, da, wo sie auftreten. Aber Jürgen Büssow bekämpft nicht den Rechtsradikalismus, sondern schlichtweg das Internet - und ich habe den Eindruck, aus einer großen Unkenntnis heraus. Was er technisch den Providern abverlangt, ist nicht machbar. Vor allem aber besteht für Sperrverfügungen gegen Zugangsprovider keine Rechtsgrundlage, weil sie dem Mediendienste-Staatsvertrag nicht unterliegen, wie mehrere Gutachten bestätigen. - Herr Büssow, verlangen Sie Unmögliches? Zumindest die von Ihnen mit initiierten Tests lassen die Filter ja schlecht aussehen. - Büssow: Als Ordnungsbehörde müssen wir kein bestimmtes Verfahren vorschlagen, wie etwas technisch möglich ist. Trotzdem haben wir uns in Gesprächen mit den Providern darauf eingelassen, ein System von drei Softwarefirmen zu prüfen. Die Universität Dortmund hat sich einverstanden erklärt, die Filter auf ihre Effektivität hin zu untersuchen: ob sie zu umständlich oder teuer sind. Bisher kam nicht heraus, dass es nicht machbar wäre. - Aber die Filter funktionieren auch noch nicht. Umgehen lassen sie sich ja ohnehin. - Büssow: Der Leiter des Rechenzentrums, ein Physiker, sagt: Wir können den Zugang zu bestimmten Seiten erheblich erschweren. Surfer müssen an Windowsrechnern zwölf Schritte unternehmen, um die Sperre zu umgehen. Das ist für durchschnittliche Nutzer viel Aufwand. Vier Provider in Deutschland decken 80 Prozent der User ab: T-Online, AOL, Freenet und Compuserve. Wenn nur die vier eine Selbstverpflichtung abgeben und diese Inhalte nicht mehr zugänglich machen, wäre das ein großer Fortschritt. Denn die Leute, die verbotene Seiten verbreiten wollen, kämen nicht mehr an die Mehrheit der Bevolkerung ran. -
Tauss: Die kommen schon jetzt nicht an die große Mehrheit der Bevölkerung ran, weil die große Mehrheit der Bevölkerung sich für diesen Mist nicht interessiert. Ich muss doch Nazi-Angebote bewusst suchen. Und, wenn ich sie suche, werde ich auch tech sche Tricks anwenden. Die Umgehung Ihrer DNS-Sperre ist automatisierbar, dann bekomme ich den Zugang ganz einfach. Im Übrigen sind Filter schon deshalb nicht sinnvoll, weil sie dazu führen, dass die bekämpften Angebote aufviele andere Server kopiert werden. Jürgen Büssows gute Absicht wird so konterkariert. Selbst wenn wir die Chance hätten, die eine oder andere Naziseite auszusortieren: Ich hätte große Bedenken, ob man eine solche Technik einsetzen soll. Andere Teile der Welt warten nur darauf. Denn mit der gleichen Software lässt sich gegen Demokratie und Freiheit vorgehen. Wenn auch andere Länder anfangen, ihre nationale Rechtsordnung auf das Netz zu übertragen, kann man sich vorstellen, was geschieht: Irak würde pro-westliche Einflüsse bekämpfen, oder Milosevic hätte in Jugoslawien das Internet, das wesentlich zur Demokratisierung des Landes beigetragen hat, unterbunden. Ich hoffe, dass die Technik, die Herr Büssow sich wünscht, nie funktioniert, selbst wenn sie manchmal hilfreich wäre. Überhaupt: Wer sagt wem, welche Seiten gesperrt werden? - Büssow: Unsere Verfügungen sind transparent und verwaltungsgerichtlich überprüfbar. Deshalb stimmen Ihre Beispiele nicht mit Irak oder China; dort gibt es nämlich keine Verwaltungsgerichte. - Herr Büssow, Sie haben eine Entwicklung initiiert, an deren Ende eine Filterlösung steht. Raten Sie dann den Providern: Benutzt die Technik, und damit ist die Internetwelt wieder in Ordnung? - Büssow: Die Provider können auch andere Sperrtechniken verwenden. Für uns ist entscheidend, dass illegale Inhalte, selbst wenn sie aus dem Ausland kommen, gestoppt werden können. Der Nachweis der Sperrmöglichkeit ist auch wichtig für die gerichtliche Auseinandersetzung, die wir anstreben. Der eigentliche Punkt ist für mich: Gibt es eine Verantwortlichkeit der Zugangsprovider, wenn sie illegale Inhalte zugänglich machen, oder nicht? Die FirstAmendment-Regeln der US-Verfassung schützen Nazi-Seiten in den USA, aber nicht bei uns. Wenn wir sagen, wir wollen diesen Schutz auch, müssten wir dem USRecht folgen - und unsere Verfassung in Sachen Meinungsfreiheit ändern. - Gibt es die Verantwortung der Zugangsprovider, von der Jürgen Büssow spricht? - Tauss: Die Provider wirken schon jetzt konstruktiv mit. Wenn die Polizei zu ihnen kommt und sagt "Wir müssen eine Straftat verfolgen", dann ist das selbstverständlich möglich. - Büssow: Aber ist nicht die staatliche Gemeinschaft verpflichtet, sich vor die angegriffenen Menschen zu stellen? Das können Ausländer sein, Homosexuelle, Kinder - im Sinne von Jugendschutz und Kinderpornografie -, oder es können jüdische Gemeinden sein oder Angehörige jüdischen Glaubens in Deutschland. Ich akzeptiere nicht die Auffassung aus der Netzszene, es gäbe online ein Recht auf Hassseiten, egal wie ehrabschneidend sie sind. Die Verletzung der Betroffenen müsse man eben in Kauf nehmen; das Weh sei nun mal ein Abbild der Welt. - Tauss: Es ist eine grobe Unterstellung zu sagen, man wolle nichts gegen solche Leute tun. Wir können die Täter ergreifen. Sie machen sich aut Bundesgerichtshof im Ausland nach deutschem Recht strafbar: Wenn sie hierher zurückkommen, können . sie gefasst werden; das ist völlig klar. - Der Bundestag hat ein neues Bundesjugendschutzgesetz verabschiedet, die Länder arbeiten an einem neuen Staatsvertrag zum Medienschutz - und dort geht es um das Prinzip der Selbstregulierung und vielleicht der regulierten Selbstregulierung. Kann das funktionieren?
- Büssow: Wir wünschen uns Selbstverpflichtungen der Provider. Die muss man definieren. Die AOLs dieser Welt könnten Eltern ermöglichen, selbst zu entscheiden, welche Inhalte ihre Kinder sehen dürfen. Für diese Anbieter sind netzautonome Filter auch Marketing-Instrumente: Wenn es eine effektive Selbstregulierung gäbe, bräuchten Behörden nicht einzugreifen. Tatsächlich wollen aber die Zugangsprovider von Selbstverpflichtungen wenig wissen. Dann kann der Staat sich nicht rausziehen. - Tauss: Gegen Selbstregulierung ist nichts einzuwenden. Wenn Fotolabors hei der Filmentwicklung kriminelle Handlungen sehen, informieren sie die Behörden -.:ohne dass man Erklärungen von allen Labors verlangt hat. Die Provider sind bereit, über Regulierungen zu reden und tun einiges. Sie haben etwa Vereinbarungen mit dem Bundeskriminalamt getroffen. - Alle reden über Medienkompetenz, wenn sie nicht mehr weiter wissen. Sie auch? - Tauss: Ich rede über Medienkompetenz - nicht, weil ich nicht weiter weiß, sondern weil ich es für nötig halte, dass wir hier etwas tun. Ich muss davon ausgehen, dass Kinder und Jugendliche mit Dingen in Verbindung kommen, die nicht wünschenswert sind. Wir müssen sie in die Lage versetzen, damit fertig zu werden. Und ich halte es für eine Schlüsselkompetenz in der Informationsgesellschaft, zwischen falschen und richtigen Inhalten zu unterscheiden, ihren Ursprung zu bewerten, Realität und Fiktion trennen zu können. Wenn wir Jugendschutz so verstehen, dass wir Dinge verbieten oder sperren, sie in der Realität aber dennoch da sind, besteht die Gefahr, dass wir Probleme ausblenden und Kinder und Jugendliche alleine lassen. Zumal sie ja nicht zum Lehrer kommen können, weil der sich strafbar macht, wenn er etwa ein Gewaltvideo mit seiner Klasse behandelt. Diese Entwicklung im Jugendschutz ist ein Rückgriff auf die Zeiten, als unser katholischer Pfarrer im Dorf gesagt hat, was wir sehen sollen und was nicht - und wir Jungs immer geguckt haben: Aha, was hat er verboten, das müssen wir erst recht anschauen. - Immer mehr Schulen sind mit Computern ausgestattet. Wie sieht es denn mit den personellen Voraussetzungen dafür aus, dass der sinnvolle Umgang mit Computer und Internet gelehrt werden kann? - Tauss: Beim Jahrestreffen des Chaos Computer Clubs haben sich viele Schüler darüber ausgelassen, wie wenig Ahnung ihre Lehrer haben. Auf meine Frage, oh sie auf die Pädagogen verzichten wollen, kam übereinstimmend: nein. Die Jugendlichen hätten sie gerne als Moderatoren heim Umgang mit Computer und Internet. Das halte ich für den richtigen Weg. - Ist die Sicht auf der Regierungsbezirk-Ebene auch so positiv und optimistisch? - Büssow: Wir bilden verstärkt Lehrer fort, damit sie mit Internet und PC arbeiten können. Und die Auseinandersetzung mit kritischen Inhalten läuft im Unterricht in vielen Fächern. Das alles funktioniert. Aber es ersetzt nicht ordnungs- und strafrechtliche Ahndungen."
- Footnote
- Sie arbeiten am gleichen Thema, sind Politiker derselben Partei - und dennoch geraten der Düsseldorfer Regierungspräsident Jürgen Büssow und Bundestagsabgeordneter Jörg Tauss aneinander, wenn es um fragwürdige Internet-Inhalte geht. Zuletzt stritten sie im Berliner Büro der FR. Die Fragen stellten Ingrid Scheithauer und Michael Bayer.
-
Lischka, K.: Falsche Fährten (2002)
0.01
0.00867677 = product of:
0.03470708 = sum of:
0.03470708 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
0.03470708 = score(doc=1863,freq=44.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2873414 = fieldWeight in 1863, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1863)
0.25 = coord(1/4)
- Abstract
- So wollte der CDU-Ortsverband Fuldatal wohl kaum bekannt werden: Die Nordhessen gerieten in die Schlagzeilen, weil sie mit falschen und fragwürdigen Schlüsselwör-tern Nutzer von Suchmaschinen auf ihre Webseiten locken wollten. Solche erschlichenen Einträge bei Google und Co. sind nur ein Grund, warum die Ergebnislisten selten objektiv ausfallen. Manche Einträge sind auch schlicht gekauft -und andere fehlen, weil sie gefiltert wurden.
- Content
- "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.
-
Buchner, M.: ¬Die Machete im Dschungel : Persönliche Auskunftsdienste: "Hier werden Sie geholfen" - Ratgeber sind die neue Konkurrenz für Internet-Suchmaschinen (2001)
0.01
0.008597529 = product of:
0.034390114 = sum of:
0.034390114 = weight(_text_:und in 6730) [ClassicSimilarity], result of:
0.034390114 = score(doc=6730,freq=30.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2847172 = fieldWeight in 6730, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6730)
0.25 = coord(1/4)
- Abstract
- Wer Verona Feldbuschs Kultspruch "Hier werden Sie geholfen" in die Internet Suchmaschine www.google.de eingibt, bekommt innerhalb von 1,69 Sekunden 1.800 Web-Seiten angezeigt, auf denen dieser populäre Satz steht - zu viel um den Überblick nicht zu verlieren. Das Dilemma von Suchmaschinen wird dabei offensichtlich: Ausgerechnet der Name des Werbesponsors, für den Verona ihr Sprüchlein aufsagen darf, ist unter den Verweisen nicht zu entdecken: Telegate AG. Dabei bietet der Münchner Telekom-Konkurrent mit dem Handelsgiganten Metro Holding und Ex-Postminister Christian Schwarz-Schilling als Kapitalgeber mehr als nur Auskunft über Telefonnummern: Anrufer können unter der Nummer 11880 zum Beispiel auch Adressen, Postleitzahlen, Börsenkurse, Konzerttermine oder Wetterprognosen erfragen. Dauert die Antwort länger als zwei Minuten - bis dahin sind 2,904 Mark fällig - verspricht Telegate kostenlose Offline-Recherche mit, Rückruf. Als Beispiel nennt die Telegate-Werbung die Suche nach der Adresse eines alten Schulfreunds, den man aus den Augen verloren hat. Quelle für solche Auskünfte ist das Internet. Neben Telegate entdecken jetzt auch andere Anbieter das Geschäft mit Ratsuchenden für alle Lebenslagen. Seit Januar 2001 sind zum Beispiel die Erfurter Talking.net AG und die Clarity AG (Bad Homburg) neu im Markt. - Internet für alle - Die Geschäftskonzepte dieser Unternehmen gründen auf zwei Überlegungen: Sie wollen den gewaltigen Informationspool Internet auch Leuten erschließen, denen aus der Zugang zum Internet bislang verwehrt ist. Etwa weil sie keinen Anschluss haben oder weil sie gerade unterwegs sind. Zum anderen wird das Internet durch die explosionsartig wachsende Informationsfülle zum Datendschungel, in dem sich normale Benutzer immer schwieriger zurechtfinden. Hier bieten Auskunftsdienste ihre Hilfe an.
Das allerdings zu höchst unterschiedlichen Preisen. So kassiert Talking.net 1,94 Mark pro Minute Auskunftszeit über das Festnetz, während Clarity für Handy-Dienste 3,63 Mark verlangt. Angesichts von gegenwärtig vier Milliarden Internet-Seiten mit einem Zuwachs von sieben Millionen Seiten pro Tag, so die Schätzung des Internet-Forschungsinstituts Cyveillance, sind Orientierungsprobleme im Netz vorprogrammiert. Suchmaschinen werfen auf Schlagworteingabe oft eine Unzahl von Verweisen aus - und lassen den Suchenden ratlos. - Exotische Fragen - Das stellten auch die Marktforscher Fittkau & Maaß bei einer Online-Umfrage fest: 57 Prozent der Internetsurfer finden es schwierig, Informationen aufzuspüren, 36 Prozent haben Probleme, vorhandene Seiten im World Wide Web zu finden und über ein Fünftel konnte nicht einmal bereits besuchte Websites wiederfinden. Dabei hat die Info-Sintflut erst begonnen. Die School of Information und Management Systems der University of California in Berkeley hat herausgefunden, dass allein 1999 1,5 Exabyte (1,5 Millionen Terabyte) neuer Daten erzeugt wurden - das sind 1.500.000.000.000.000 Bücher im Umfang von rund 300 Seiten. Derzeit taxieren die Autoren Hal Varian und Peter Lyman das Volumen aller weltweit verfügbaren Informationen auf zwölf Exabyte (= zwölf Millionen Terabyte), bis 2003 werden noch mehr Informationen erzeugt werden. Das bedeutet: In etwas mehr als zwei Jahren entstehen mehr Informationen als in den letzten 300 000 Jahren zusammen. Angesichts solcher Zahlen dürften Auskunftsdiensten goldene Zeiten bevorstehen. Vor allem wenn komplizierte Fragen zum Geschäftskonzept gehören, wie es bei der Talking.net AG der Fall ist. Der Service ist erreichbar unter der Nummer 11821 und nennt sich ausdrücklich "Alles-Auskunft".
Rund 270 so genannte Webguides versuchen im thüringischen Erfurt Antworten zu finden auf Fragen des Kalibers: Wie schief ist der schiefe Turm von Pisa? Wie viele McDonalds-Restaurants gibt es in Deutschland? Wo gibt es den billigsten DVD-Player in München? Die in Acht-Wochen-Kursen geschulten Ratgeber finden fast immer eine Antwort. Das jedenfalls versichert Unternehmenssprecher Tilman Kube. Grund: " 98 Prozent der Fragen lassen sich mit zwölf gängigen Suchmaschinen beantworten". "Und die beherrsehen unsere Webguides aus dem Effeff", ergänzt Talking.net-Vorstandsmitglied Klaus-Michael Erben, "das befähigt sie auch, den größten Teil der Fragen innerhalb von zwei Minuten zu beantworten. " Wofür dem Anrufer manchmal 3,88 Mark berechnet wird. Umfangreiche Recherchen kosten gesondert berechnet und schlagen mit 17,50 Mark für 15 Minuten zu Buche. Trotz exotischer Fragemöglichkeiten wollen indessen die allermeisten Anrufer ganz normale Dinge wissen, so Talking.net-Sprecher Kube: Telefonnummern, Adressen, Flugtermine und Zugfahrpläne. Derzeit noch bieten die Erfurter mit badischer Wurzel - Mitgesellschafter ist die Walter Marketing AG in Ettlingen bei Karlsruhe ihren Service nur via Telefon und dort vor allem über Festnetz an. Wer am Handy Auskunft bekommen will, muss sich zuvor registrieren lassen und Mitglied im Klub McTalk (Mindestumsatz fünf Mark pro Monat) werden und kann den mobilen sogar billiger als im Festnetz bekommen. Bereits im Juni 2001, so Kube, will Talking.net die Telefonauskunft um einen Online-Auskunftsdienst erweitern. Ratsuchende können dann während einer Online-Sitzung übers Internet Kontakt aufnehmen. Das technische Kabinettstückchen nennt sich CoBrowsing: Ein Internet-Pfadfinder ist am PC-Schirm zu sehen und über ein Mikrofon im PC oder Telefon zu sprechen. Der Clou: Er kann über das Netz Seiten von seinem auf den PC des Users überspielen, ihn so zu den gesuchten Informationen führen und ihm sogar beim Ausfüllen eines Formulars helfen. Oder übertragen ausgedrückt: Sexy Verona führt die Computermaus
-
Schlüter, C.: Neue Ressourcen : Zeitgenössisches Contentmanagement oder: Was will der Spiegel von Wikipedia? (2007)
0.01
0.008597529 = product of:
0.034390114 = sum of:
0.034390114 = weight(_text_:und in 1759) [ClassicSimilarity], result of:
0.034390114 = score(doc=1759,freq=30.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2847172 = fieldWeight in 1759, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1759)
0.25 = coord(1/4)
- Content
- "Demokratiefortschritte werden bekanntlich nicht immer freudig begrüßt. Bei Diktatoren und anderen, der Freiheit allenfalls lose verbundenen Zeitgenossen überrascht das nicht. Doch tun sich mitunter auch Demokraten sehr schwer. Sie nämlich befürchten, wo sich neue Möglichkeiten der Partizipation auftun, eine Entgrenzung oder, deutlicher formuliert, Verlotterung der guten Sitten. Die Demokratie, so lautet ihr Lamento, gefährdet sich selbst, indem sie ihre Fundamente, die sie tragenden Prinzipien und Standards preisgibt. Dieser altmodische und mit einigem aristokratischen Aplomb dargebrachte Vorbehalt stößt sich zumeist am Pöbel, dem gemeinen Plebs also, der nun einmal mehr die Bühne des bislang nur dem gelehrten Bürger vorbehaltenen öffentlichen Räsonierens betritt und seinen irgendwie schmuddeligen Geschäften nachgeht. Etwas zeitgemäßer formuliert begegnet uns der Vorbehalt in der aktuellen Debatte um das Internet und seine angeblich desaströsen Folgen für Wissen und Wahrheit. Eine klare Sache: Die natürliche Feindin der - wehrhaften - Demokratie ist die Massendemokratie. Vor allem der "gute Journalismus" scheint in Gefahr. Befürchtet wird ein babylonisches Stimmengewirr, ein Labyrinth des Meinens und Dafürhaltens, Chaos, Entropie. Den Verlust mehr oder weniger bewährter Hierarchien beklagen insbesondere die Vertreter der analogen, an die Papierform gebundenen Printmedien; sie werden dies gewiss auch aus wohlverstandenem Eigeninteresse tun. Die sehr viel interessantere Frage aber lautet, ob es gute inhaltliche Gründe gibt, die digitale Konkurrenz zu fürchten. Was also mag jetzt das Hamburger Nachrichtenmagazin Der Spiegel geritten haben, vom Frühjahr an nicht nur alle seit 1947 in dem Blatt erschienenen Artikel sowie Lexika und Wörterbücher kostenlos ins Netz zu stellen, sondern vor allem auch die Einträge der Internet-Enzyklopädie Wikipedia? Offenbar sollen hier die Erträge eines "guten Journalismus" mit den Inhalten eines diffusen, weitestgehend dezentralen und auf freiwilliger Basis organisierten Mitmachprojekts vermischt, verwässert, wenn nicht gar verhunzt werden.
Oder auch nicht. Zum einen wird man beim Spiegel-Verlag auf so genannte Komplementärgeschäfte hoffen - ein kostenloses Angebot lockt in die Nähe anderer, allerdings kostenpflichtiger Angebote, sprich: Werbung. Zum anderen aber gibt es, was Wikipedia angeht, kaum einen triftigen Beleg für den befürchteten Qualitätsabfall. Trotz aller, wahlweise, demokratie- oder medientheoretischer Bedenken und jenseits allzu durchsichtiger Pro-domo-Expertisen steht vielmehr ein inhaltlicher Gewinn zu erwarten. Dazu gibt es einige Evidenzen. Bereits 2005 gab die wissenschaftliche Zeitschrift Nature einen Vergleich in Auftrag, bei dem sich die Wikipedia mit der renommierten Encyclopedia Britannica messen lassen musste. Das - vielleicht - erstaunliche Resultat: Die Britannica lag in Punkto Korrektheit und Editionsqualität zwar vorn, aber nicht sehr weit; die englische Wikipedia könne sich durchaus mit seriösen Produkten messen (sehr aufschlussreich ist hier die auf www.nature.com abrufbare Liste der in den Vergleichspublikationen gefundenen Fehler). Die Untersuchung führte vor allem von Seiten der Britannica zu dem Vorwurf, es seien in erster Linie naturwissenschaftliche Einträge verglichen worden, bei historischen, politischen und geisteswissenschaftlichen Artikeln würde Wikipedia dagegen deutlich abfallen. Dies kann eine neue, diesmal vom Magazin Stern in Auftrag gegebene Studie allerdings nicht bestätigen. Als Vergleichprodukt wurde hier der Brockhaus gewählt. Das vor zwei Wochen im Stern veröffentlichte Ergebnis präsentierte mit klarem Vorsprung einen Gewinner: die Online-Enzyklopädie Wikipedia.
An Qualität herrscht, sofern sie denn messbar ist, kein Mangel. Woran es allerdings zu mangeln scheint, ist ein näheres Verständnis des mit dem Begriff "Web 2.0." etwas rätselhaft bezeichneten Faktums, dass wir es im Internet längst mit neuen Formen der interaktiven und kollaborativen, zumeist dezentralen und häufig auch unentgeltlichen Wissensproduktion zu tun haben. Mögen nach dem ersten Hype von vor ein paar Jahren viele der damit verbundenen ökonomischen Hoffnungen enttäuscht worden sein: Dieser, wenn man so will, plebejische Aufstand hat sich bislang als überaus widerstandsfähig und ertragreich erwiesen. Von einer neuen politische Ökonomie des Internets, wie sie etwa der niederländische Medientheoretiker Geert Lovink fordert, sind wir indes noch weit entfernt. Dass Wissens-Zugänge anders als über gewissermaßen ständische Privilegien oder entgeltliche Barrieren möglich sind, ist noch nicht angekommen. Wenn der Spiegel nun einen weiteren Versuch unternimmt, aus einer vorkommerziellen Ressource, dem Projekt Wikipedia, Kapital zu schlagen, dann allerdings auch, um trotz seines allemal exquisiten Angebots Kosten zu sparen - eine durchaus mögliche Konsequenz aus der so genannten Medienkrise. Das allerdings beruht auf einem Missverständnis: Denn als Ressource funktioniert Wikipedia nur, solange das Prinzip der Freiwilligkeit gewahrt bleibt. Erst sie generiert jene Qualität, auf die man mittlerweile nicht mehr zu verzichten können glaubt."
-
Beuth, P.: Voyeure gesucht : Böse Nachbarn (2008)
0.01
0.008597529 = product of:
0.034390114 = sum of:
0.034390114 = weight(_text_:und in 3226) [ClassicSimilarity], result of:
0.034390114 = score(doc=3226,freq=30.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2847172 = fieldWeight in 3226, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3226)
0.25 = coord(1/4)
- Content
- "Mitten in Frankfurt lebt eine bösartige Friseurin, die geparkte Autos zerkratzt und in die Psychiatrie gehört. Findet jedenfalls ihr Nachbar, der diese Anschuldigungen im Internet für jedermann sichtbar veröffentlicht hat: Auf der viel gescholtenen Seite www.rottenneighbor.com befindet er sich mit solchen Behauptungen in bester Gesellschaft. Vermeintliche Drogendealer, Schlampen, Betrüger - sie alle haben ihre Einträge auf der Karte von Frankfurt erhalten, in einigen Fällen sogar mit exakter Anschrift und vollem Namen. Die Denunzianten selbst bleiben lieber anonym. Der überwiegende Teil der Einträge auf der Website liest sich allerdings eher so: "Im Hauptbahnhof wohnt ein Geist - hat meine Mama mal gesagt." Es mag Menschen geben, die das wahnsinnig witzig finden, jedenfalls zeigt es, wie ernst Rottenneighbor wirklich zu nehmen ist. Zuletzt hatte das Portal aus den USA für Aufsehen gesorgt, weil es für viele deutsche User tagelang nicht oder nur über Umwege zu erreichen war. Zensurverdacht wurde unter Bloggern laut, zumal der Seitenbetreiber im kalifornischen Santa Barbara zunächst nicht auf Anfragen reagierte. Als er es dann tat, erklärte er die Probleme mit dem rasant gestiegenen Interesse aus Deutschland. Die Server hätten die "mehreren hunderttausend Zugriffe am Tag" nicht verkraftet. Tatsächlich kommen derzeit 80 Prozent aller Zugriffe auf die Seite aus Deutschland, befeuert vom reflexhaften Aufschrei von Journalisten und Politikern. In den USA ist das Interesse längst schon wieder gesunken, von einst 300.000 Besuchern im Monat auf zuletzt noch 60.000. Dort schrieben die Medien bereits im Januar, was Kulturpessimisten hierzulande nun nachbeten: Über "erhebliche Eingriffe in die Persönlichkeitsrechte" hatte sich etwa Norbert Schneider, Direktor der Landesmedienanstalt NRW kürzlich erregt und Google aufgefordert, das "Cyber-Mobbing" nicht mit seinen Stadtplänen zu unterstützen.
Viel Wirbel - dabei ist das Ende der Aufmerksamkeit für die öffentliche Nachbarschaftsschelte bereits abzusehen. Zu sehr ähneln sich die Anfeindungen, zu gering ist der Nutzwert, als dass die Seite lange interessant bleiben könnte. Sobald die Medien und Blogger mit dem Thema durch sind, werden die Abrufe wieder klar sinken. Das Abendland wird nicht untergehen. Das zeigt auch die Geschichte, denn "Anschwärzen 2.0" ist beileibe kein neues Phänomen. Den fragwürdigen Titel eines Pionier-Prangers im Internet darf sogar das deutsche Angebot von rache-ist-suess.de für sich beanspruchen. Die Seite wurde 1999 zum Anlaufpunkt für Teenager, die über Ex-Freunde und zickige Rivalinnen lästern wollten. Im vorigen Jahr wurde die Seite stillgelegt. Zwar sind die Tiraden immer noch zu lesen, aber keiner spricht mehr über das Portal. Über langfristige gesamtgesellschaftliche Schäden ist nichts bekannt. Auch die Seite dontdatehimgirl.com ist so ein Fall: Frauen warnen vor Dates mit Männern, die sie für Fremdgänger, Lügner oder Verlierer halten - oft mit komplettem Namen und sogar Fotos. Auch diese Seite kommt aus den USA, auch hier finden sich Einträge aus Frankfurt, Bonn und Berlin. Wie verdreht oder erlogen die Infos sind, kann niemand prüfen. Aber Webstatistiken zufolge hat das Portal selbst in den USA kaum 90000 Besucher im Monat und dürfte so eher als Frust-Abladestation dienen denn als Warnsystem. Psychologin Katja Schwab, Autorin des "Psychologieblogs" (psychologieblog.de), erklärt die Motive der Denunzianten mit simplen Rachebedürfnissen: "Sie wollen nach einem Konflikt ihr Selbstwertgefühl wiederherstellen. Dafür bedienen sich die Menschen immer der am einfachsten zugänglichen Mittel."Den "Tätern" gebe es ein gutes Gefühl, wenigstens irgendetwas unternommen zu haben, und auch den Lesern der Schmähungen gehe es ums Selbstwertgefühl. "Es ist menschlich, sich nach unten zu vergleichen, um das Selbst zu erhöhen. Wenn wir sehen, dass andere Probleme haben, fühlen wir uns besser."
Man kann das Schadenfreude nennen - oder auch einfach nur Unterhaltung. Den unbestritten gibt es unter den Web-Denunzianten talentierte Entertainer. Das berühmteste Beispiel ist derzeit die Britin Tricia Walsh. Sie stellte ein Video über ihren Scheidungskrieg auf Youtube, in dem sie peinliche Details über ihren Gatten ausplaudert. Sie verrät aller Welt, dass sie wegen des Bluthochdrucks ihres Mannes keinen Sex mit ihm hatte, er aber Kondome, Viagra und Pornos in einer Schublade hortete. Vier Millionen User haben das Video schon gesehen. Für Psychologin Schwab ein typisches Beispiel für eskalierende Konflikte: "In einem bestimmten Stadium will man dem anderen unbedingt schaden, auch wenn man dabei selbst Schaden nimmt." Genauso kam es: Den Scheidungskrieg verlor Tricia Walsh nicht trotz, sondern wegen des Videos. "Sie hat versucht, das Leben ihres Mannes in eine Seifenoper zu verwandeln, indem sie ein Melodram schrieb und spielte", schimpfte der Richter und bestätigte den klar zu Gunsten des Gatten ausfallenden Ehevertrag als rechtmäßig. Die Schauspielerin und Drehbuchautorin, die nie über Jobs für Mayonnaise-Werbung, billige Horrorfilme und die "Benny Hill Show" hinausgekommen war, flog aus der gemeinsamen Wohnung. Mit Fortsetzungen zum ersten Youtube-Film versucht sie sich nun im Gespräch zu halten - mit abnehmendem Erfolg. Das aktuelle Video, in dem sie ankündigt, die Kondome ihres Ex bei Ebay zu verkaufen, klickten nur noch 70000 Schadenfreudige an. Das Internet vergisst vielleicht nie, aber seine User umso schneller."
-
Berg, L.: Wie das Internet die Gesellschaft verändert : Google gründet ein Forschungsinstitut in Berlin (2011)
0.01
0.008597529 = product of:
0.034390114 = sum of:
0.034390114 = weight(_text_:und in 552) [ClassicSimilarity], result of:
0.034390114 = score(doc=552,freq=30.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2847172 = fieldWeight in 552, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=552)
0.25 = coord(1/4)
- Content
- "Vor zehn Jahren kannten nur Eingeweihte die Suchmaschine Google, heute ist das Googeln so selbstverständlich wie Kaffeetrinken. Am Aufstieg des kalifornischen Unternehmens ist ablesbar, wie sehr das Internet die Gesellschaft durchdrungen hat. Verändert hat sich aber auch das Image der US -amerikanischen Firma. Bis vor wenigen Jahren weckte der Name die Vorstellung von cleveren Computerfreaks, die der Welt freundlicherweise einen Weg durch den Informationsdschungel bahnen. Spätestens seit der Debatte um den Online-Straßenatlas Street View ist das Bild nicht mehr so positiv: Viele fürchten jetzt die unersättliche, machtbesessene Datenkrake. Besonders heftig war der Protest gegen Street View in Deutschland. Just hierzulande, in Berlin, fördert der Marktführer unter den Internet-Suchmaschinen nun den Aufbau eines sozial- wissenschaftlichen Forschungsinstituts, in dem es um "Internet und Gesellschaft" gehen soll. Eric Schmidt, der Ex-Vorstandsvorsitzende von Google, hatte die Gründung im Februar bei einem Vortrag an der Humboldt-Universität (HU) angekündigt. Im Senatssaal der Universität wurde das Projekt gestern bei einer sehr gut besuchten Pressekonferenz näher vorgestellt. Der ehemalige Google-Chef war nicht mehr angereist. Er grüßte aber per Videobotschaft und betonte, dass das neue Institut völlig unabhängig von Google arbeiten werde. Sein Unternehmen habe lediglich die Initiative ergriffen und stelle Geld bereit.
Getragen wird das neue Forschungszentrum von den drei Berliner Institutionen Humboldt-Universität, Universität der Künste (UDK) und Wissenschaftszentrum Berlin für Sozialforschung (WZB). Kooperationspartner ist das Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Google Deutschland fördert das Projekt mit insgesamt 4,5 Millionen Euro zur Verfügung, in drei jährlichen Tranchen von je 1,5 Millionen Euro. Nach weiteren Kooperationspartnern und Finanziers wolle man suchen, hieß es auf der Pressekonferenz. Auch bei den beiden anderen Berliner Universitäten, Freie Universität und Technische Universität, sehe man "Andockstellen". - Unis und WZB als Träger Untergebracht wird das neue Institut in der Juristischen Fakultät der HU. Dort sind Büros für ein insgesamt zehnköpfiges Kernteam vorgesehen: für vier Direktoren, vier Mitarbeiter und zwei Geschäftsführer. Geplant ist auch die Gründung einer Graduate School, zunächst mit zwei Stellen für Doktoranden und weiteren Positionen für Postdoktoranden. Offizieller Arbeitsbeginn ist im Herbst, nach dem Auftakt mit einem internationalen Symposium über die sozialen Aspekte des Internets vom 25. bis 28. Oktober in Berlin. "Berlin ist die digitale Hauptstadt Deutschlands", begründete der Google-Sprecher Ralf Bremer die Standortwahl. Beeindruckend sei die Fülle von Startup-Unternehmen im Bereich der elektronischen Medien.
Google pflege weltweit viele akademische Partnerschaften, allerdings fast ausnahmslos zu Fragen der Informationstechnik. Die Förderung eines sozialwissenschaftlichen Instituts sei für seine Firma ein Novum, betonte Bremer. Die Wahl sei auf Berlin gefallen, weil es hier sehr viel Kompetenz auf diesem Gebiet gebe. - Kreatives Schwarmverhalten An Ideen für künftige Projekte mangelt es nicht, das zeigten die Beiträge der künftigen Direktoren des Instituts auf der Pressekonferenz. Der HU-Rechtswissenschaftler Ingolf Pernice will zum Beispiel untersuchen, ob die Vorstellung vom Staat sich durch das Internet verändert. Eine fast ver- gessene Utopie, die globale Verfassung, sei durch das weltweite Netz wieder in den Bereich des Möglichen gerückt, sagte Pernice. Thomas Schildhauer, Informatiker an der Universität der Künste, möchte das kreative Schwarm- verhalten ausloten. Er berichtete vom 300-Dollar-Haus , das im Internet gemeinschaftlich für Krisengebiete entwickelt wird. Schildhauer sucht überdies nach Wegen, um die drohende Spaltung der Gesellschaft in Computerkundige und digitale Analphabeten zu verhindern.
Auch der Jurist Wolfgang Schulz vom Hamburger Hans-Bredow-Institut interessiert sich für die Schwarmintelligenz: Warum nicht die Weisheit der Massen nutzen und Patente ins Internet stellen, um ihre Neuheit zu prüfen, schlug er vor. Die Politikwissenschaftlerin Jeanette Hofmann vom WZB beschäftigt sich bereits seit 15 Jahren wissenschaftlich mit dem Internet. Ihr geht es um die Regeln, die das Internet bestimmen - um technische Standards, aber auch um soziale Gepflogenheiten und kulturelle Normen. Mit den Mitteln des neuen Instituts will Jeanette Hofmann die Zukunft des Internets erforschen und dabei auch Fragen des Datenschutzes behandeln. Im Oktober, beim Symposium, sollen die Projektideen mit Kollegen aus aller Welt diskutiert werden. Um Doppelarbeit zu vermeiden, will man sich mit den führenden Einrichtungen auf diesem Gebiet abstimmen, etwa dem Berkman Center an der Harvard University und dem Oxford Internet Institute. Die Ergebnisse des neuen Berliner Instituts seien nicht für Google reserviert - "sie werden frei zugänglich im Internet publiziert", kündigte die WZB Chefin Jutta Allmendinger an. Das Engagement des Unternehmens sei lobenswert und es halte sich völlig aus der inhaltlichen Arbeit heraus: "Sonst hätten wir nicht mitgemacht.""
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.01
0.008589564 = product of:
0.034358256 = sum of:
0.034358256 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.034358256 = score(doc=6206,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.25 = coord(1/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Bekavac, B.: Metainformationsdienste des Internet (2004)
0.01
0.008589564 = product of:
0.034358256 = sum of:
0.034358256 = weight(_text_:und in 3936) [ClassicSimilarity], result of:
0.034358256 = score(doc=3936,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28445345 = fieldWeight in 3936, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3936)
0.25 = coord(1/4)
- Abstract
- Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011)
0.01
0.008589564 = product of:
0.034358256 = sum of:
0.034358256 = weight(_text_:und in 4720) [ClassicSimilarity], result of:
0.034358256 = score(doc=4720,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28445345 = fieldWeight in 4720, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4720)
0.25 = coord(1/4)
- Abstract
- Am 6. August 1991 wurde die Welt vernetzt - und damit drastisch verändert.
- Content
- "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
Aus dieser Erfindung ergaben sich ganz unmittelbar schier unbegrenzte Möglichkeiten. Wie wäre es, wenn er seine Daten mit denen der anderen Wissenschaftler am CERN würde vernetzen können, ohne die mühsame Arbeit, zentrale Datenbanken anzulegen? Und wie wäre es, wenn die CERN-Wissenschaftler sich auf diese Art mit Wissenschaftlern auf der ganzen Welt verlinken könnten? Lee machte sich ans Werk und entwickelte ein Code System, mit dessen Hilfe verschiedenartige Datensätze kompatibel gemacht werden konnten. Daraus entstand die Lingua Franca des Internet, HTML: Er schrieb eine Art Regelwerk, nach dem Dokumente quer durch das Internet verlinkt werden konnten - jene Prinzipien, die wir heute als HTTP kennen. Und schließlich baute er auch noch den ersten Browser der Geschichte. Am 6. August 1991 stellte Lee in einem bemerkenswert unbemerkenswerten Akt seine Erfindung der Welt vor. Er stellte eine kurze Notiz in die newsgroup alt.hypertext, wo man Browser und Server herunterladen konnte. Das Internet explodierte praktisch sofort. Innerhalb von fünf Jahren wuchs die Benutzerzahl von 600 000 auf 40 Millionen.
Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
-
Hehl, H.: ¬Die elektronische Bibliothek : Literatursuche und Literaturbeschaffung im Internet (2001)
0.01
0.008589564 = product of:
0.034358256 = sum of:
0.034358256 = weight(_text_:und in 718) [ClassicSimilarity], result of:
0.034358256 = score(doc=718,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28445345 = fieldWeight in 718, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=718)
0.25 = coord(1/4)
- Footnote
- Rez. in: ABI-Technik 21(2002) H.3, S.293 (I. Hort): "Schon zwei Jahre nach dem ersten Erscheinen konnte Hans Hehl 2001 sein Werk über die "Elektronische Bibliothek" in einer neuen Auflage vorlegen. Das Hauptgewicht der Darstellung bilden die Möglichkeiten der Literatursuche und -beschaffung im Internet. Daneben wird jedoch - und dies stellt eine Erweiterung gegenüber der ersten Ausgabe dar - auch auf das Auffinden sonstiger Fachinformationen im "Netz der Netze" eingegangen. Der Blickwinkel, den Hehl bei seiner Darstellung einnimmt, ist stets derjenige des Suchenden. Für ihn stellt er eine Vielzahl von Strategien dar, mit deren Hilfe die gewünschten Informationen aufgespürt werden können. Die empfohlenen Vorgehensweisen werden dabei oft durch ausführliche Beispiele illustriert. Knapp gehalten sind hingegen die Hinweise zur Funktionsweise der besprochenen Instrumente. Etwas umfangreichere Basisinformationen könnten hier sicher das Problembewusstsein der InternetNutzer/innen schärfen und es erleichtern, eine qualifizierte Entscheidung für eine bestimmte Vorgehensweise zu treffen. So wäre beispielsweise eine Darstellung der Ranking-Verfahren, die die gängigen Suchmaschinen bei der Präsentation der Treffer einsetzen, wünschenswert gewesen. Ein grundsätzliches Problem, mit dem jede Buchveröffentlichung zum Thema Internet konfrontiert wird, ist der durch die raschen Wandlungen des Mediums hervorgerufene Aktualitätsverlust der in gedruckter Form dargebotenen Informationen. So trifft man, wenn man die präsentierten Beispiel nachvollziehen will, u. U. eine veränderte Oberfläche mit neuen Funktionen an. Für die in seiner Monographie erwähnten Internet-Adressen versucht Hehl den "Informationsverfall" durch eine unter der URL http://www.kulturserver.de/home/hhehl/connect/ links.htm bereitgehaltenen Liste auszugleichen. Breiten Raum nimmt die Darstellung von Suchmaschinen und thematischen Verzeichnissen sowie der hier möglichen Recherchestrategien ein. Ein anderes Kapitel dient der Besprechung wichtiger Bibliothekskataloge, ergänzt durch eine tabellarische Auflistung weiterer interessanter Adressen. Beziehen die Ausführungen von Hehl sich ansonsten auf Angebote im WWW, so fügt er an dieser Stelle ein Kapitel über Telnetverbindungen und Telnetrecherchen ein. Dies trägt der Tatsache Rechnung, dass es immer noch einige Bibliotheken gibt, die ihre Kataloge nur über einen Telnetzugang präsentieren. Ihre Zahl verringert sich allerdings, und viele der von Hehl aufgeführten Verbindungen sind inzwischen obsolet. Bei der Erörterung von Datenbanken liegt das Schwergewicht auf frei verfügbaren Quellen, aber auch wichtige kommerzielle Angebote werden vorgestellt. Im Kapitel über Elektronische Publikationen wird deren ganze Vielfalt angesprochen. So reicht der Bogen von Büchern über Zeitschriften, Reports und Preprints bis zu Dissertationen und Gesetzestexten. Aber auch Veröffentlichungen, die im weiteren Sinne dem Gebiet der elektronischen Publikationen zuzuordnen sind wie Statistiken, landeskundliche Übersichten und Online-Vorlesungen, werden angesprochen. Die abschließende Darstellung der Literaturbeschaffung über das Internet setzt den Schwerpunkt auf "Subito". Ein in dieser Auflage neuer Anhang ist der Darstellung des von Hehl selbst entwickelten Multisuchsystems EConnect gewidmet. Dieses bietet die Option über ein einheitliches Eingabefeld eine einfache Suche in verschiedenen Datenbanken durchzuführen. Über Linksysteme besteht ferner die Möglichkeit, die erhaltenen Nachweise ggf. direkt mit dem elektronischen Volltext oder Bestandsnachweisen der zitierten Journale in einem Verbundkatalog zu verbinden. Zusammenfassend lässt sich sagen, dass das vorliegende Werk Anfänger, die sich in die Möglichkeiten der bibliothekarischen Informationsbeschaffung mit Hilfe des Internets einarbeiten wollen, dabei unterstützen kann, sich das ein oder andere Gebiet zu erschließen. Erfahrene können hier Impulse erhalten, ihre eingeschliffenen Routinen zu überprüfen und ggf. zu optimieren."
-
Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003)
0.01
0.008477277 = product of:
0.03390911 = sum of:
0.03390911 = weight(_text_:und in 2721) [ClassicSimilarity], result of:
0.03390911 = score(doc=2721,freq=42.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28073493 = fieldWeight in 2721, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2721)
0.25 = coord(1/4)
- Abstract
- Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
- Content
- "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
-
Hosbach, W.: Google vs. Wiki : Neue Konkurrenz (2008)
0.01
0.008477277 = product of:
0.03390911 = sum of:
0.03390911 = weight(_text_:und in 2797) [ClassicSimilarity], result of:
0.03390911 = score(doc=2797,freq=42.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.28073493 = fieldWeight in 2797, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2797)
0.25 = coord(1/4)
- Abstract
- Die Suchmaschine und das Online-Lexikon greifen sich gegenseitig an. Beide wollen es besser können als der andere.
- Content
- Knol? Knol ist bekannter unter dem Namen gPedia oder auch Googlepedia, ein Online-Lexikon wie Wikipedia. Google greift Wikipedia an. Warum? Weil Wikipedia Google angegriffen hat. Denn vor zirka einem Jahr verkündete Wiki-Gründer Jimmy Wales, dass er eine eigene Suchmaschine konzipiert, die nach Wiki-Prinzipien arbeitet. Die Verantwortlichen bei Google, die eh in jedem Bereich des Internets Fuß fassen möchten, griffen den Fehdehandschuh auf und riefen Knol ins Leben. Wikia Search kann der Besucher schon ausprobieren (search.wikia.com/wiki/Search_Wikia/de), zu Knol gibt es nur einen Bild (www.google.com/help/knol_screenshot.ht ml) und eine Reihe von Ideen (knolstuff.com). Beide Neuschöpfungen versuchen, die Fehler des konkurrierenden Vorbilds zu vermeiden, um auf Dauer besser zu sein. Das Nachschlagewerk Der Hauptunterschied zwischen Knol - der Name kommt von Knowledge - und Wikipedia betrifft die Rolle der Autoren. Bei Wiki sind Autoren und Leser etwa gleichwertig, so dass der Leser, wenn er einen Fehler findet, sofort in die Rolle des Autors wechselt und Korrekturen oder Ergänzungen unmittelbar am Text vornimmt. Anders bei Knol, denn hier rückt der Autor stärker in den Vordergrund. Er ist mit Bild rechts oben in der Ecke seines Textes sichtbar und der Leser findet Informationen über ihn. Im Zentrum steht nicht die Weisheit der Vielen, sondern die Sachkunde des Experten. Dieser behält im Folgenden die Kontrolle über seinen Text, indem er beispielsweise Ergänzungen genehmigt oder nicht. So ist eine gewisse Einheitlichkeit gewahrt. Wem der Text also nicht gefällt, kann diesen nicht ändern. Aber er kann selbst einen Text zum gleichen Thema schreiben. Verschiedene Sichtweisen eines Themas konkurrieren also nicht in einem Text wie bei Wikipedia, was oft zu skurrilen Grabenkämpfen führt, sondern in eigenständigen Werken. Der Leser hat dann die Wahl, wobei Bewertungen anderer Leser ihm bei der Auswahl helfen. Denn jeder Leser kann einen Knol-Artikel kommentieren oder rezensieren (ohne dass der Autor das zensieren könnte) und mit Sternchen bewerten. So gibt es für die Gemeinschaft die Möglichkeit, eine qualitative Auswahl und ein Ranking von Texten vorzunehmen.
Der Autor hat darüber hinaus die Möglichkeit etwas mit seinen Texten zu verdienen. Denn er kann Google-Werbung freischalten und die Firma beteiligt ihn an den Einnahmen. So hat er noch einen Anreiz mehr, gute Qualität zu liefern und im Ranking zu steigen. Autoren, die allerdings keine Werbung mögen, weil diese beispielsweise ihr Renommee als Wissenschafter schädigt, müssen Google-Ads nicht freigeben. Noch ein Unterschied zu Wikipedia liegt in der Art der Texte. Die Wiki-Macher legen starken Wert darauf, dass sich in der Online-Enzyklopädie nur Artikel mit lexikalischem Interesse finden, das heißt es gibt eine lange Liste mit Relevanzkriterien (de.wikipedia.org/wiki/Wikipedia:Relevanzkriterien), die regeln, ob ein Thema "enzyklopädische Bedeutung" hat oder nicht. Das alles soll es bei Knol nicht geben. Alle Arten von Sachtexten sind erwünscht also explizit auch Anleitungen ("So bauen Sie ein Vogelhäuschen") oder Produktbeschreibungen ("Das neue Handy..."). Da ist die Grenze zur Werbung kaum zu ziehen, was auch einer der Hauptkritikpunkte an Knol ist: "Man wird dort schrecklich viele Artikel über Viagra sehen", macht sich Wikipedia-Gründer Jimmy Wales nicht ganz zu unrecht lustig. Der Hauptangriff gegen Wikipedia wird sein, dass Knol-Artikel auch in den Suchergebnissen von Google zu finden sein werden, sicher weit oben und an der Stelle, wo jetzt prominent die Wiki-Texte liegen. So wird es zu einer gewissen Verdrängung kommen. Umgekehrt hat Google aber angekündigt, dass die Knol-Texte auch für andere Suchmaschinen offen sind, hier also kein Zaun für die Konkurrenz entsteht. Von Knol wie gesagt gibt es nur einen Screenshot, der einen Entwurf eines Lexikonartikels zeigt. Neben dem schon erwähnten Autorenkasten, findet sich in Kopf eine Kurzfassung des Textes mit einer Reihe von Metainformationen. Das sind in erster Line ein Inhaltsverzeichnis sowie die Zahl der Sterne, der Kommentare und der Rezensionen. Der Text selbst (über Schlafstörungen) ist ansprechend gesetzt, verfügt über Fotos sowie Grafiken und zeigt am Ende weiterführende Bücher und Links.
Der Autorenkasten zeigt die Berufsbezeichnung der Autorin, weitere Artikel von ihr, zum Thema passende Artikel und eben die Google-Werbung. Außerdem hat sich die Autorin dafür entschieden, den Artikel unter die Creative-Commons-Lizenz (CCL) zu stellen, so dass andere Autoren das Material unter bestimmten Einschränkungen, zum Beispiel die Nennung des Urhebers, weiter verwenden können. Ein Knot-Artikel könnte so auch bei Wikipedia landen. Ob die CCL eine Google-Vorgabe für alle Texte im Lexikon wird, ist noch nicht bekannt. Die Suche Die Wiki-Konkurrenz zu Google heißt Wikia-Search. Der Namensbestandteil Wikia verrät den Urheber des Projekts, denn es handelt sich nicht um die gemeinnützige WikimediaFoundation, die Betreiberin von Wikipedia, sondern um Wikia Inc., ein gewinnorientiertes Unternehmen des Wiki-Gründers Jimmy Wales. Die Anwender, die die Suchergebnisse von Wikia-Search verbessern, arbeiten also auch unbezahlt am Gewinn des Firmengründers mit. Seit YouTube ein weit verbreitetes Web-2.0-Phänomen. Die Wikia-Suche soll sich in erster Linie durch Offenheit zu Google unterscheiden. Das heißt, der Such- und Ranking-Algorithmus ist Open Source. Jeder kann wissen, warum seine Seite an welcher Position landet. Außerdem soll es Programmierschnittstellen (APIs) geben. Das ist nicht nur für die ehrlichen Webmaster gut, sondern auch für Spammer, denen Wikia die Manipulation erleichtert. Wie der Betreiber dagegen vorgehen will, dazu gibt es noch keine Aussagen. Eine gewisse Kontrolle werden die Anwender ausüben, die die Ergebnisse bewerten können. So wandert Spam schnell nach unten und die guten Resultate nach oben.
Die Teilnahme der Anwender erfolgt über zwei Werkzeuge. Einmal gibt es die Miniartikel, die ein Suchwort kurz erklären oder verschiedene Bedeutungen eines Begriffs aufzeigen. Dieses Wissen soll die Suchmaschine einmal verwenden, um die Suchergebnisse in einen besseren Kontext zu binden (handelt es sich um den britischen oder den afrikanischen Jaguar?). Ferner kann jeder Suchende bis zu fünf Sternchen für einzelne Treffer vergeben. Das soll künftig ebenfalls das Ergebnis beeinflussen und verbessern. Wie man sieht, sind die interessanten und Erfolg versprechenden Funktionen bislang noch abgeschaltet. Weiter beachtenswert ist bei Wikia die Möglichkeit, den Index zu wechseln. Für viele lexikalische Suchen eignet sich die White List, die nur eine zwar lange, aber festgelegte Liste von Seiten durchsucht. Spam ist dabei fast ausgeschlossen, während die Treffer zwar nicht allumfassend sind, aber eine hohe Relevanz besitzen. Sowohl Wikia als auch Knol sehen nach viel versprechenden Neuansätzen aus und beide haben eins gemeinsam: Sie bringen frischen Wind in festgefügte Strukturen, denn sowohl dem allmächtigen Google als auch der selbstherrlichen Wikipedia kann ein bisschen Konkurrenz nicht schaden."
-
Weltbibliothek Internet? (1997)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
0.03348665 = score(doc=1727,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 1727, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1727)
0.25 = coord(1/4)
- Abstract
- Innerhalb weniger Jahre hat sich das Internet vom Computernetzwerk der Wissenschaftler und Ingenieure zum weltumspannenden Kommunikationssystem für jedermann entwickelt. Doch verschiedene, generelle Hemmnisse - von Kapazitätsproblemen der Datenleitungen abgesehen - beeinträchtigen den Nutzen, so die schiere Menge unorganisierter Information, der Mangel an verläßlichen Regeln für die Abwicklung von Geschäften und die Dominanz des Englischen
-
Fey, J.; Siering, P.: Am Klondike der Kommunikation : Goldgräberstimmung bei Online-Anbietern (1995)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 2026) [ClassicSimilarity], result of:
0.03348665 = score(doc=2026,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 2026, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2026)
0.25 = coord(1/4)
- Abstract
- Eigentlich sollte man meinen, daß neben dem Internet-Boom keine Gewinne mehr für die Anbieter von anderen Online-Diensten abfallen. Doch weit gefehlt! CompuServe, America Online und Konsorten haben sich zu wahren Goldgruben gemausert. Und wie bei jedem Goldrausch sind bereits weitere Prospektoren auf dem Weg, die sich auf dem Sektor Telekommunikation einen Claim abstecken wollen
-
Hrachovec, H.: Kein Körper, kein Lächeln - nur 'flame wars' : wütende Philosophen: der Streit um die Elektronifizierung der Wissenschaft an einem Beispiel aus dem Internet (1995)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 2552) [ClassicSimilarity], result of:
0.03348665 = score(doc=2552,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 2552, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2552)
0.25 = coord(1/4)
- Abstract
- Ein Gespenst geht um in Internet - das Gespenst der Revolution. Lawrence M. Sanger, Student an der Ohio State University, hat Marx gelesen und beginnt mit diesem Satz sein 'Tutorial Manifesto'. Die Botschaft: Ablösung des Universitätssystems durch frei vereinbarte, privat finanzierte Tutorien im Internet
- Footnote
- Adressen: gopher.univie.ac.at; http://cogsci.ecs./soton.ac.uk/~hanard/intpub.html und http://www.univie.ac.at/philosophie/wphil.htm
-
Kanther sieht Gefahren für innere Sicherheit (1996)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 3323) [ClassicSimilarity], result of:
0.03348665 = score(doc=3323,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 3323, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3323)
0.25 = coord(1/4)
- Abstract
- "Neue Informationstechniken können nach den Worten von Bundesinnenminister Manfred Kanther die innere Sicherheit gefährden. Man müsse sich auch mit den Schattenseiten der Informationsgesellschaft beschäftigen und Abwehrmaßnahmen treffen. Neue Gesetze gegen Kinderpornographie im Internet hält er nicht für nötig. Statt dessen müßten die Täter gefaßt werden. Kanther betonte, seine Warnungen seien kein Plädoyer gegen die neuen Technologien. Es könne aber nicht angehen, daß Kriminelle und Extremisten abhörsicher in neuen Netzen telefonierten oder sich durch Verschlüsselungen vor der Strafverfolgung schützten"
-
¬Die Multimedia-Zukunft : mit Extra-Teil: Frauen und PC (1996)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 3571) [ClassicSimilarity], result of:
0.03348665 = score(doc=3571,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 3571, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3571)
0.25 = coord(1/4)
- Content
- Enthält u.a. die Beiträge:MÜLLER, R.S.: Mythos Netz: Multimedia, der Kampf um Techniken und Märkte; RIEGER, F.: Denn sie wissen, was sie tun: eine Handvoll Firmen verwalten die wichtigsten Informationen der Welt; JACOB, J.: Datenspur beim Tastendruck (Interview); BRENNER, T.: Digital Life: die Geburt eines neuen Glaubens; KARTTE, S.: Wer kennt George: über die tückischen Verlockungen des Teleshopping; TANGENS, R. u. P. GLASER: Die Zivilisation: Information wird die Menschheit nicht retten;
-
Krüger, T.; Mittelstraß, J.: "Kopf hoch, nicht die Hände" : Tele-Visionen und die nachlassende Urteilskraft - zur politischen Moderation der digitalen Revolution (1996)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 3770) [ClassicSimilarity], result of:
0.03348665 = score(doc=3770,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 3770, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3770)
0.25 = coord(1/4)
- Abstract
- Interaktives TV, Hunderte von Fernsehkanälen und Datenautobahnen: alle reden von Kommunikation, sagt der Bundestagsabgeordnete Thomas Krüger, aber viele haben sich gar nichts mitzuteilen. Wir dokumentieren neben dem Beitrag Krügers auch einen Vortrag, den der Konstanzer Philosoph Jürgen Mittelstraß gehalten hat. Beide Texte befassen sich mit den Auswirkungen der digitalen Revolution
-
Kaltschmidt, H.; Poschmann, A.: Im Netz nach Menschen fischen (1996)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 4902) [ClassicSimilarity], result of:
0.03348665 = score(doc=4902,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 4902, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4902)
0.25 = coord(1/4)
- Abstract
- Stammbäume sind irgendwie spannend - da tun sich manchmal Dinge auf. Ganz unbürokratisch und mit viel Spaß kann heute jeder in den Online-Diensten nach Verwandten, Freunden und Promis forschen
-
Bergmann, U.: WWW anbieten und nutzen (1996)
0.01
0.008371662 = product of:
0.03348665 = sum of:
0.03348665 = weight(_text_:und in 4905) [ClassicSimilarity], result of:
0.03348665 = score(doc=4905,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2772374 = fieldWeight in 4905, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4905)
0.25 = coord(1/4)
- Abstract
- Die Zielgruppe dieses Buches: alle, die selbst einen WWW-Server aufstellen, betreuen und mit Inhalt füllen möchten. Vor allem Nutzer des Public-Domain Servers httpd von CERN werden an dem Werk ihre Freude haben, da der Autor detailliert auf diesen beliebteb Server zu sprechen kommt, den man etwa mit Linus einsetzen kann. Etwa die Hälfte des Werks geht auf HTML mit allen Spielarten wie Formulare, Style Sheets ode CGI-Scripts ein