-
Beuth, P.: To bing or not to bing : Entdeckungen beim Selbstversuch (2009)
0.01
0.006418913 = product of:
0.025675653 = sum of:
0.025675653 = weight(_text_:und in 3872) [ClassicSimilarity], result of:
0.025675653 = score(doc=3872,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22691534 = fieldWeight in 3872, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3872)
0.25 = coord(1/4)
- Content
- "Ich binge, du bingst, er/sie/es bingt. Bis sich das nicht mehr komisch anhört, wird es wohl noch eine Weile dauern. Aber ein erster Test zeigt: Bingen hat durchaus das Potenzial, ein Verb zu werden. Dazu muss der neue Dienst aber so schnell wie möglich vereinheitlicht werden. Auf Deutsch ist bisher nur eine Beta-Version verfügbar, und die bietet nichts, womit Bing einen Google-User bekehren könnte. Vielversprechender ist die US-Version, aufrufbar über die Ländereinstellung am rechten oberen Bildschirmrand. Sie zeigt, was Bing alles kann. Oberstes Ziel und Prinzip von Microsoft ist offenbar, dem Nutzer nach Eingabe eines Suchbegriffs so viele Filter und Voransichten zu liefern, dass er möglichst beim ersten Klick auf einen Link genau dort landet, wo seine Anfrage auch wirklich beantwortet wird. Suche nach Orten: Wer nach "Frankfurt" sucht, bekommt von Bing eine Trefferliste, die nach Kategorien wie Tourismus, Karten und Restaurants geordnet ist. Neben jedem Link taucht beim "Mouse-Over" ("Drüberfahren" mit der Maus) ein Vorschaufenster mit den ersten Informationen über den Inhalt der jeweiligen Seite auf. Das hilft, wenn aus einem Linktitel in der Trefferliste nicht sofort ersichtlich wird, was sich dahinter verbirgt. Der Kategorisierung fallen allerdings wichtige Verweise zum Opfer, die Google sofort anbietet, etwa Links auf die Uni Frankfurt, die Buchmesse oder die Eintracht. Suche nach Bildern: Auch hier werden für jeden Suchbegriff verschiedene Filter angeboten. Ähnlich wie bei Google kann man etwa nur nach Gesichtern oder Illustrationen suchen. Das Blättern in den Suchergebnissen entfällt dagegen, beim Scrollen lädt Bing einfach immer neue Bilder nach. Ein Klick auf ein Bild führt den Nutzer nicht gleich auf die Zielseite, sondern lädt diese im Bing-Rahmen. So bleibt Platz für die Vorschau auf andere Suchergebnisse. Suche nach Videos: Hier hat Microsoft eine äußerst ansprechende Lösung gefunden. Suchergebnisse werden als Thumbnail, also als Kleinbild angezeigt - und ein einfaches Mouse-Over genügt, damit Auszüge des Videos in dieser Größe abgespielt werden. Das funktioniert als Vorschau so gut, dass als erstes die Pornofans jubelten: Mit Bing sei es wunderbar einfach, eine Sexfilm-Sammlung anzulegen. Dafür muss man nur den voreingestellten Jugendschutzfilter deaktivieren, was mit drei Klicks erledigt ist.
Suche nach Personen: Beim "Ego-Bingen", also bei der Suche nach dem eigenen Namen, hat die Microsoft-Maschine noch Aufholbedarf. Profile von sozialen Netzwerken wie Xing etwa sind nicht immer unter den Bing-Treffern. Google findet außerdem mehr und relevantere Ergebnisse, sowohl bei weniger bekannten Menschen als auch bei Prominenten, weshalb man bei der Suche nach Personen mit dem Marktführer besser bedient ist. Suche nach News: Noch eine Baustelle, auf der Microsoft tätig werden muss. Die US-Version von Bing zeigt zu deutschen Nachrichtenthemen wie Arcandor nur englische Quellen. Zeitfilter, die Google News anbietet, fehlen ganz. Gar nicht sortierbar sind derzeit die Ergebnisse der deutschen News-Suche bei Bing. Dafür kann man sich wie schon beim Vorgänger Windows Live Search persönliche "Alerts" einrichten, also Benachrichtigungen, die automatisch verschickt werden, wenn es Neuigkeiten zu dem ausgewählten Thema gibt. Suche nach Dokumenten: Die erweiterten Einstellungen von Google ermöglichen es, etwa nur nach PDF-Dokumenten zu suchen. Bei Bing gibt es zwar auch eine erweiterte Suche, die ist aber erst in der Trefferliste der Standardsuche aufrufbar - und sie enthält weniger Filter. Wer die jeweiligen Operatoren kennt, in diesem Fall "filetype:pdf", kann sich allerdings auch von Bing ausschließlich PDF-Dokumente anzeigen lassen."
-
Lenzen, M.: Eine Leipziger Tagung über Kognitionswissenschaft : Traum vom künstlichen Fußballspieler (2001)
0.01
0.0062482175 = product of:
0.02499287 = sum of:
0.02499287 = weight(_text_:und in 733) [ClassicSimilarity], result of:
0.02499287 = score(doc=733,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22088107 = fieldWeight in 733, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=733)
0.25 = coord(1/4)
- Content
- "Auf Kinoleinwänden tummeln sich Roboter, die von Menschen kaum zu unterscheiden sind. Auf den Fußballfeldern der Kognitionsforscher dagegen düsen kleine Wägelchen munter in der Gegend herum und suchen nach dem Ball, stehen sich selbst im Weg und befördern auch mal einen gegnerischen Spieler ins Tor, wenn sie den Ball nicht finden können. Der Weg zur Perfektion ist noch weit. Der Fußballstar ebenso wie der Haushaltsgehilfe, der die Küche aufräumt, sind eher ein Nebenprodukt der Kognitionsforschung. Künstliche kognitive Systeme, sollte es denn je gelingen, sie zu konstruieren, sind aber vor allem deshalb interessant, weil sie einen leichteren Zugang zu kognitiven Phänomenen versprechen als die komplexen Lebewesen. Dies erläuterte Frank Pasemann (Jena) unlängst auf der fünften Fachtagung der Deutschen Gesellschaft für Kognitionswissenschaft in Leipzig. Pasemann beschrieb kognitive Systeme als dynamische Systeme mit oszillierendem, chaotischem Verhalten. Diese dynamischen Eigenschaften sind seiner Ansicht nach die Basis kognitiver Fähigkeiten. Wie diese allerdings entstehen, weiß bislang niemand. Die Ansprüche der Kognitionsforscher haben sich gewandelt. Vom Turing-Test bis zu den Turnieren Deep Blues fand der Wettstreit zwischen Mensch und Rechner auf der Tastatur oder auf dem Schachbrett statt. Inzwischen sind die Ansprüche gewachsen. Allgemeine, verkörperte, situierte Intelligenz ist gefragt: sich in der Welt zurechtfinden, lernen, schnell und flexibel reagieren. In den besten Zeiten des Computermodells des Geistes hoffte man noch, über den Geist sprechen zu können, ohne das Gehirn zu kennen. Inzwischen hat sich ein biologischer Realismus durchgesetzt: Zwar ist nach wie vor von der Informationsverarbeitung im Gehirn die Rede, doch intelligente Systeme baut man inzwischen eher nach dem Vorbild der Natur, als daß man das Gehirn anhand des Computers zu verstehen versuchte. Da ist es mit Programmen allein nicht getan, dazu bedarf es eines Körpers, eines Roboters. Den ultimativen Intelligenztest, schrieb der Kognitionsforscher Rolf Pfeifer vor kurzem, haben die künstlichen Systeme erst bestanden, wenn sie ein Basketballspiel gegen eine menschliche Mannschaft gewinnen. Statt auf Basketball hat sich die Zunft inzwischen auf Fußball spezialisiert. Gewisse Grundprinzipien sind dabei weitgehend unstrittig. Statt bei den Höhenflügen des menschlichen Geistes gilt es bei einfacheren Dingen zu beginnen, bei Orientierung und Bewegungssteuerung etwa. Gibt man einem Roboter einen detaillierten Plan seiner Welt und der von ihm erwarteten Aktionen, wird er sich elegant in der Welt bewegen. Allerdings nur, solange sich die Welt nicht verändert - eine recht unrealistische Annahme. Dem begegnet man am besten mit selbstlernenden Systemen. Rolf Der (Leipzig) führte ein System vor, das mit Hilfe seiner künstlichen Neuronen lernen kann, an einer Wand entlangzufahren oder einen Ball zu schieben. Dazu ist nur die Vorgabe nötig, die Sensorwerte stabil zu halten. Um zu verhindern, daß es diesen Auftrag durch einfaches Stehenbleiben erledigt, gab Michael Herrmann (Göttingen) seinem System noch ein Neugier-Prinzip mit auf den Weg. So entsteht scheinbar zielorientiertes Verhalten, ohne daß dem System ein Weltmodell vorgegeben werden müßte. Bislang ist das menschliche Gehirn jedoch auch den teuersten und besten künstlichen Systemen noch weit überlegen. Ein paar hundert Millisekunden reichen aus, um ein Gesicht als solches zu erfassen, zumeist auch schon, um seine Identität festzustellen. Ähnlich beim Verstehen: Kaum ist ein Satz ausgesprochen, hat man ihn gewöhnlich auch schon verstanden. Das leistet kein Computerprogramm. Nancy Kanwisher (MIT) versuchte mit Hilfe moderner bildgebender Verfahren, kategorienspezifische Regionen im visuellen Kortex zu finden, solche Regionen etwa, die nur für die Wahrnehmung von Gesichtern zuständig wären.
Dazu zeigten Kanwisher und ihr Team Personen unterschiedliche Dinge: Gesichter, Blumen, Tiere, Landschaften, Stühle und so weiter. Sie beobachteten, ob einige egionen stärker auf bestimmte Reize reagierten als andere. Dabei zeigte sich; daß in, der Tat eine Region in der rechten Hälfte des visuellen Cortex etwa doppelt so stark auf Gesichter anspricht wie auf andere Dinge. Eine weitere Region scheint für Körperteile mit Ausnahme von Gesichtern zuständig zu sein. Andere kategorienspezifische Regionen entdeckten die Forscher nicht, weder bei Dingen, die man für evolutionär relevant halten könnte, beispielsweise Nahrungsmittel oder Raubtiere, noch bei Musikinstrumenten, Möbelstücken. Auch Autos ergaben eine Fehlanzeige, obwohl Kanwisher die Probanden für letzteren Versuch aus den Kreisen begeisterter Autoclub-Mitglieder rekrutierte. Angela Friederici (Leipzig) berichtete von Studien, bei denen Versuchspersonen korrekte Sätze, grammatisch korrekte, aber sinnlose Sätze und grammatisch falsche Sätze präsentiert wurden. Das ereigniskorrelierte Potential ihrer Gehirne zeigte vierhundert Millisekunden nach der Präsentation der sinnlosen, grammatisch aber korrekten Sätze starke Aktivität, bei syntaktisch falschen Sätzen trat die Aktivität dagegen schon nach 160 Millisekunden auf. Friederici interpretierte' dies als Hinweis, daß das Gehirn eingehende Sätze zuerst auf ihre syntaktische Stimmigkeit prüft und dann eine Art Muster des Satzes erstellt. Erst danach kümmert es sich um die Bedeutung. Durch Filterprozesse gelang es auch, rein prosodische Sprache zu erzeugen, bei der die Satzmelodie erhalten blieb, der Inhalt aber verschwand. Gewöhnlich sind prosodische Grenzen auch syntaktische Grenzen, ein Effekt, den Kleinkinder als' Einstieg in die Sprache benutzen. Wird die Satzmelodie manipuliert, zeigt sich, daß das Gehirn einen falsch betonten Satz aber nur kurz für einen ungrammatischeu hält. Nach etwa fünfhundert Millisekunden interagieren Syntax- und Semantikerkennung im menschlichen Gehirn, nach sechshundert Millisekunden erfolgt die erste Reaktion der Versuchsperson. Das Kreuz der Kognitionsforschung liegt darin, daß die menschliche Selbstwahrnehmung für ihre Belange völlig unzureichend ist. A. Knauff (Freiburg) fand etwa heraus, daß, entgegen der verbreiteten Meinung, bildliches Vorstellen beim Schlußfolgern eher hinderlich ist. Bildliches Vorstellen ist eine effektive und viel benutzte Problemlösungsstrategie, das ist empirisch gut abgesichert. Die Lösung abstrakter Probleme gilt als schwieriger als diejenige konkreter Aufgaben, eben weil man sich nichts dabei vorstellen kann. Wie Knauff herausfand, sind ber lediglich räumliche Vorstellungen hilfreich, Über-unter-Relationen etwa, konkrete visuelle Bilder erwiesen sich dagegen als störend. Fragen der Art: "Der Hund ist sauberer als die Katze, der Affe ist schmutziger als die Katze. Ist der Hund sauberer als der Affe?" zu beantworten dauerte deutlich länger als strukturgleiche Fragen über räumliche Zusammenhänge"
-
Pluta, W.: ¬Das Werk der Wikipedianer (2004)
0.01
0.0062482175 = product of:
0.02499287 = sum of:
0.02499287 = weight(_text_:und in 3896) [ClassicSimilarity], result of:
0.02499287 = score(doc=3896,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22088107 = fieldWeight in 3896, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3896)
0.25 = coord(1/4)
- Content
- "Das Internet ist der größte Wissensspeicher der Menschheit. Hier sind sehr viel mehr Informationen zu finden als in einem Lexikon. Dennoch ist der Griff zum gedruckten Nachschlagewerk immer noch für viele die beliebteste Methode, um Wissen nachzusehen. Denn dort sind Informationen gut strukturiert und leicht zu finden, Wichtiges ist vom Unwichtigen getrennt. Zudem gelten die klassischen Enzyklopädien als Hort der Zuverlässigkeit, was man von vielen der unzähligen Internet-Seiten nicht behaupten kann. Jetzt haben die teuren gedruckten Enzyklopädien Konkurrenz bekommen von einem Online-Lexikon: Das Nachschlagewerk namens Wikipedia steht im Internet kostenlos zur Verfügung. Das Besondere daran: Jeder Nutzer kann bei seinem weiteren Aufbau mitmachen, also neue Texte verfassen und bereits bestehende korrigieren oder ergänzen. Die Mitarbeit ist denkbar einfach: "Jeder, der den Link 'bearbeiten' findet, kann mitmachen", erläutert Wikipedia-Sprecher Arne Klempert. "Wer einen Fehler entdeckt, kann eine Änderung vornehmen, sie speichern - und schon ist die Aktualisierung online." Möglich macht das die Technik, auf der Wikipedia beruht: Ein "wiki" (nach "wiki wiki", dem hawaiianischen Wort für "schnell") ist eine einfach zu bedienende Software, um die Inhalte einer Website zu verwalten und zu bearbeiten. Ursprünglich wurde das Programm als Werkzeug für eine Zusammenarbeit, zum Beispiel von Angestellten verschiedener Niederlassungen eines Unternehmens, über das Internet entwickelt. Über 100 solcher offenen Content Management Systeme gibt es inzwischen.
Auch bei der Stichwortauswahl unterscheidet sich die Herangehensweise von Wikipedia und gedruckten Lexika grundlegend: Gehen bei den klassischen Nachschlagewerken Redakteure mit enzyklopädischem Eifer daran, eine möglichst prägnante Wissenssammlung zusammenzustellen, hängt bei der Wikipedia die Themenauswahl von den Interessen der Autoren ab. Ob "Tolkien" oder "Internet", "Erkenntnistheorie", "Hitler-Tagebücher" oder "HDTV" - die deutsche Wikipedia bietet Erklärungen zu den unterschiedlichsten Bereichen - vom kanonischen Wissen, das auch den Brockhaus oder die Encyclopaedia Britannica füllt, bis hin zu jenen Themen, die zwar viele bewegen oder interessieren, die aber kaum Eingang in die klassischen Enzyklopädien finden. So hat etwa die Pop-Ikone Dieter Bohlen ihren Platz in der Wikipedia. Das Online-Lexikon umfasst derzeit knapp 130 000 Stichwörter. Das sind etwa halb so viele wie in der aktuellen Brockhaus-Ausgabe. Sind die deutschen Wikipedianer jedoch weiterhin so fleißig wie bisher, ist es nur eine Frage der Zeit, bis die virtuelle die gedruckte Enzyklopädie überholt hat. Denn die deutschsprachigen Autoren - nach den englischsprachigen die aktivsten der weltweiten WikipediaBewegung (siehe Kasten links) - steuern Tag für Tag rund 500 neue Einträge bei. Allerdings: Manches Stichwort sucht man in der Wikipedia vergeblich - trotz der Vielzahl der Autoren. "Wir stehen zu diesen Lücken", sagt Klempert. Um einzelne Themengebiete gezielt auf Vordermann zu bringen - etwa alles rund um Olympia in diesem Sommer - ruft die Gemeinschaft regelmäßig Qualitätsoffensiven aus. In manchen Themenbereichen - beispielsweise Internet, Computer, Software, Technik - ist das Online-Lexikon heute schon ausführlicher als die klassischen Enzyklopädien. Die Autoren können nach Belieben in die Tiefe gehen - im Gegensatz zu einem gedruckten Lexikon unterliegen sie keiner Platzbeschränkung. Dennoch setzt auch die Wikipedia wie die gedruckten Vorbilder auf die Qualität der Beiträge. Und die entsteht aus der Masse der Mitarbeiter: Jeder kann sein Wissen beitragen, kann Lücken in Texten füllen oder Fehler korrigieren. Außerdem kann man die Entstehungsgeschichte eines jeden Artikels verfolgen, da alle Änderungen aufgezeichnet werden.
Nicht einmal Vandalen, die Artikel 'löschen oder verunstalten, haben eine Chance. Unsinn verschwindet binnen weniger Minuten wieder aus der Wikipedia, gelöscht von Community-Mitgliedern, die ihre Aufgabe eher in der Qualitätssicherung als im Verfassen von Artikeln sehen. Denn der durchschnittliche Wikipedianer durchläuft in seinem Leben verschiedene Stadien der Mitarbeit: Neu Hinzugekommene sind noch sehr enthusiastisch, neue Artikel anzulegen oder zu schreiben. Wer schon etwas länger dabei ist, sucht sich oft ein Spezialgebiet. Doch man muss nicht einmal schreiben, um an der Wikipedia mitzuwirken. Zur Gemeinschaft gehören auch Fotografen, die Artikel mit ihren Bildern illustrieren. Einige erfahrene Wikipedianer haben sich auf das Redigieren von Texten verlegt. Auch hier hilft die Technik: Auf speziellen Seiten sind Neueinträge und Änderungen aufgelistet. Personalisierte Beobachtungslisten ermöglichen zudem das Verfolgen selbst gewählter Spezialthemen. So ist es einfach, das aktuelle Geschehen im Auge zu behalten und gezielte Desinformation zu verhindern. "Vereinzelt gibt es immer mal wieder Versuche von Personen oder von Unternehmen, sich selbst besonders gut darzustellen", berichtet Klempert. Doch allzu stark MarketingGefärbtes falle schnell auf und werde durch eine neutralere Darstellung ersetzt. Da die Wikipedianer zu jedem Zeitpunkt den Datenbestand ändern können, haben sie die Möglichkeit, nicht nur vorhandene Einträge stets auf dem aktuellen Stand zu halten, sondern auch Neues umgehend aufzunehmen. Manchmal dauert es nur Stunden, bis ein aktuelles Thema aus den Nachrichten Eingang in die Wikipedia findet. Ein Beispiel ist Bundespräsident Horst Köhler, der Anfang des Jahres den meisten Deutschen noch kein Begriff war: "Von dem Moment an, als der Name zum ersten Mal ernsthaft genannt wurde, dauerte es etwa drei Stunden, bis wir einen sehr ordentlichen Artikel zu dem Mann in der Wikipedia hatten", erzählt Klempert. Das ist ein klarer Vorteil gegenüber den gedruckten Nachschlagewerken, die nur alle paar Jahre in einer neuen Auflage erscheinen - und das oft auch noch über einen Zeitraum von mehreren Jahren. Um Aktuelles nachzuschlagen, lohnt sich also allemal der schnelle Blick in das OnlineLexikon. Experten sehen vom Informationsgehalt her kaum Unterschiede zwischen der Wikipedia und einem konventionellen Lexikon. "Viele Autoren der Wikipedia sind ja auch Wissenschaftler", sagt Michael Preuss, Informationswissenschaftler an der Fachhochschule Köln und Mitarbeiter an einem Forschungsprojekt für Wissensklassifikation. "Die Einträge etwa in Mathematik können sich durchaus mit den Einträgen in einem herkömmlichen Lexikon messen." Der Unterschied liegt für Preuss eher im Anspruch: Ein klassisches Nachschlagewerk sei ein Konversationslexikon, das darüber bestimme, was man wissen müsse und was nicht. Wikipedia sei "demokratischer". Um ganz sicher zu gehen, empfiehlt WikipediaSprecher Klempert, die Informationen aus dem Online-Lexikon mit einer zweiten Quelle zu verifizieren. "Ich finde, dass man sich auf kein Medium blind verlassen sollte", sagt Klempert, "weder auf die Wikipedia, noch auf den Brockhaus oder die Encyclopedia Britannica." "
-
Siegle, J.: Sexuelle Belästigung im Internet : Pornographie, Gewalt und Hass finden zunehmend den Weg ins Web. Jugendschützer kämpfen dagegen an (2001)
0.01
0.0062482175 = product of:
0.02499287 = sum of:
0.02499287 = weight(_text_:und in 4986) [ClassicSimilarity], result of:
0.02499287 = score(doc=4986,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22088107 = fieldWeight in 4986, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4986)
0.25 = coord(1/4)
- Content
- "Bilder verstümmelter Leichen und vergewaltigter Kinder, Anleitungen zum Bombenbauen oder neonazistische Hasstiraden - fast 1800 Jugendschutz verletzende Online-Angebote registrierte die Zentralstelle der Bundesländer für den Jugendschutz im Internet, Jugendschutz.net, im vergangenen Jahr in Deutschland. Für das laufende Jahr ist mit noch mehr Beanstandungen zu rechnen. "Die Zahl der Hinweise auf jugendgefährdende Internet-Inhalte nimmt ebenso stetig zu wie die Zahl der Websites", erklärt Martin Döring, Jurist bei Jugendschutz.net, gegenüber der FR. "Und nach unserem Eindruck wächst dabei die Zahl pornographischer Angebote mit Abstand am schnellsten." In 550 von den Mainzer Jugendschützern beanstandeten Fällen handelt es sich um "einfache" Pornographie, in 250 Fällen um "harte" Sex-Angebote - sprich sexuelle Handlungen mit Kindern, Tieren und Gewaltdarstellungen. Die Web-Adressen derartiger Online-Angebote werden umgehend an das Bundeskriminalamt in Wiesbaden weitergeleitet. Mehrere Hunderte der jugendgefährdenden Sites haben neonazistische Hintergründe. Schon seit 1997 durchforstet Jugendschutz.net das Internet. Zum einen recherchieren die "Cyberpolizisten" dabei selbst aktiv nach jugendgefährdenden OnlinePerversionen, zum anderen wird so genannte Crawler-Software eingesetzt, die das Netz systematisch durchsiebt. "Die meisten Hinweise bezüglich pornographischer Internet-Seiten erhalten wir jedoch über unsere Hotline", erklärt Döring. "Rechtsextreme Online-Angebote spüren wir in der Regel dagegen selbst auf." Die Betreiber pornographischer Angebote werden angeschrieben und aufgefordert, die Inhalte vom Netz zu nehmen oder abzuändern.
Bislang kamen dieser Aufforderung nach einem ersten Hinweis immerhin neun von zehn Anbietern nach. Rechtsextreme Überzeugungstäter und Anbieter mit schweren Verstößen werden umgehend an die Strafverfolgungsbehörden weitergeleitet, wonach empfindliche Strafen drohen - zumindest sofern es sich um in Deutschland beheimatete Internet-Angebote handelt." Liegen die Web-Seiten allerdings im Ausland, sind die Möglichkeiten deutlich eingeschränkt: Die deutsche Zentralstelle der Bundesländer kann dann nur die Provider bitten, entsprechende Sites im Hinblick auf die eigenen Allgemeinen Geschäftsbedingungen zu überprüfen und diese bei eventuellen Verletzungen zu entfernen. "Vor allem auf in den USA gehostete Angebote haben wir nur beschränkten -Einfluss", sagt Döring. "Das gilt insbesondere in Bezug auf rechtsextreme Inhalte, da dort das Recht auf freie Meinungsäußerung wesentlich unbeschränkter ist als in Deutschland." - Hardcore-Sex bei Whitehouse.com - Im Zuge der laxeren US-Online-Politik sind auf amerikanischen Internet-Servern Darstellungen von Gewalt, Sex oder Neonazi-Content noch einfacher zu finden. Eine vom Crimes Against Children Research Center der University of New Hampshire Ende Juni veröffentlichte Studie belegte zudem, dass im Cyber-Mutterland USA jedes fünfte Kind während des Surfens oder Chattens sexuell belästigt wird. Eine aktuelle Untersuchung des Washingtoner Pew Internet Projects unterstreicht dieses erschreckende Ergebnis mit der Feststellung, dass fast 60 Prozent der amerikanischen Internet-Kids unaufgefordert E-Mails oder sonstige Online-Mitteilungen von Unbekannten empfangen. Dennoch hat das Jugendschutz.net auch in den Vereinigten Staaten schon einige Erfolge vorzuweisen: Geocities, ein Anbieter von Speicherplatz im Internet, nahm beispielsweise mehrere Web-Seiten vom Netz, nachdem die Initiative der Bundesländer darauf hingewiesen hatte, dass Inhalte gegen die Geschäftsbedingungen des Yahoo-Ablegers verstoßen.
"Unzählige pornographische Online-Angebote sind auch nur einen Mausklick von konventionellen Angeboten entferne, moniert Döring. "Mit ähnlich lautenden WebAdressen sollen Surfer unfreiwillig auf bestimmte Sites gelockt werden." Eine vermeintliche Internet-Domain des Weißen Hauses gilt bereits seit Jahren als Paradebeispiel hierfür: Die Adresse Whitehou-se.com lädt keineswegs zu einem virtuellen Rundgang im Oval Office, sondern zu handfester Hardcore-Unterhaltung. Der US-Präsidentensitz ist dagegen unter Whitehouse.org zu erreichen. Und auch in Deutschland gibt es genügend derartig irreführender Adressen. "Diese bewusste Falschdeklarierung stößt uns ganz besonders übel auf, wenn dadurch Kinder ungewollt mit diesen Seiten konfrontiert werden", erklärt Döring. Die Jugendschützer laufen bislang vergebens Sturm gegen die bewusst irreführenden - und oftmals deutlich fragen- und auch menschenverachtenden - Domainnamen. "Es wäre absolut unmöglich, unter dem Namen Negervotzen.de beim Ordnungsamt ein Unternehmen einzutragen", kritisiert Döring. "Und dennoch können diese Begriffe problemlos als Web-Adressen registriert werden." Die Registrare argumentieren ihrerseits, nicht genügend Kapazitäten zu haben, alle Anmeldungen prüfen zu können. - Harmlose Seiten werden gesperrt - Ein Blick in die "Wois"-Datenbank der deutschen Internetverwaltung' Denic bestätigt die fast schon skandalöse Praxis der Domainvergabe: Ein Frankfurter konnte etwa die Adresse Kinderficken.de registrieren, eine Mann aus Bad Salzuflen die Domain Vergewaltigung.de. "Also was tun?", fragen beunruhigte Eltern. Verschiedene Experten raten zum Einsatz von Internet-Filterprogrammen. Die bislang erhältliche Software dient dem Ziel des Jugendschutzes jedoch nur unzureichend. Web-Filter wie CyberPatrol, CyberSitter, Cyber Snoop, Net-Nanny oder Surf-Watch zeigten in verschiedenen Testreihen erhebliche Mängel. Grund: Die Sperrung von Seiten mit "einschlägigen" Begriffen ist oft wenig treffgenau, viele problematische Angebote bleiben vom Filter verschont, harmlose wiederum werden grundlos gesperrt.
"Man muss dabei trennen zwischen Keyword-Blocking-Software wie CyberSitter und Lösungen wie CyberPatrol, die Adressen blockieren", präzisiert Döring die Filterproblematik. "Programme wie CyberSitter haben das Problem mit dem Zuviel an Sperrung, SiteBlocker laufen dagegen der rasanten Entwicklung im Internet immer hinterher." Frühere Versionen von Filterprogrammen zensierten sogar Begriffe wie "Staatsexamen" oder die englische Grafschaft Sussex. Unter die Zensur fielen teilweise auch Sites von Schulen, die die Note "befriedigend" vergeben haben. Beliebte Filterop'fer sind auch Angebote zur Sexualaufklärung. In der Nazi-Online-Szene werden außerdem häufig Codes verbreitet, die sich mit Filtern kaum erfassen lassen. Besonders beliebt ist etwa die Ziffer 88: Die beiden Zahlen stehen hierbei für den achten Buchstaben des Alphabets, also zweimal "H" als Abkürzung für "Heil Hitler". In jüngerer Vergangenheit wurden zudem auch die Indexlisten von Filteranbietern gehackt - so geschehen etwa Anfang des Jahres bei der Firma Surfcontrol aus Massachussetts, dem Anbieter von Cyber Patrol. Und auch im World Wide Web selbst kursieren massenweise Anleitungen zum Cracken der Cybersiebe: "Die vollmundigen Versprechungen der Hersteller nach einem vollständigen Schutz entsprechen nicht unseren Beobachtungen", kritisiert auch Döring. "Filter können eine flankierende Maßnahme sein, sie können die elterliche Aufsicht aber nicht ersetzen."
-
Siegle, J.: Programmabsturz : Immer mehr Internet-Zeitschriften stehen vor dem Aus - jüngstes Opfer ist das US-Magazin 'The Industry Standard' (2000)
0.01
0.0062385965 = product of:
0.024954386 = sum of:
0.024954386 = weight(_text_:und in 494) [ClassicSimilarity], result of:
0.024954386 = score(doc=494,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22054097 = fieldWeight in 494, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=494)
0.25 = coord(1/4)
- Abstract
- Die Web-Revolution frisst ihre Kinder. Reihenweise sind in den vergangenen Monaten viel versprechende Dotcom-Unternehmen eingegangen. Zahllose hoch dotierte Mitarbeiter haben ihren Job verloren. Und auch in der Internet-Presse sind im Zuge stark rückläufiger Anzeigenumsätze zahlreiche Pleiten zu beklagen. Jüngstes Opfer ist das US-Magazin "The Industry Standard". Diese Woche erschien die vorerst letzte Ausgabe des renommiertesten amerikanischen New-Economy-Blattes. Der San Franciscoer Verlag Standard Media International steht vor der Zahlungsunfähigkeit und wird voraussichtlich Gläubigerschutz beantragen - was in etwa dem deutschen Insolvenzverfahren entspricht. Zuvor waren Finanzierungsgespräche mit dem Hauptanteilseigner, der Bostoner Verlagsgruppe International Data Group (IDG), gescheitert. Bis auf eine Minimannschaft von sechs bis 20 Mitarbeitern, die weiterhin die Online-Ausgabe des Magazins produzieren sollen, verlieren alle 180, Angestellten ihren Job. Das Gros der Mitarbeiter war vergangene Woche vorsichtshalber schon mal in den Zwangsurlaub geschickt worden. Die Standard-Pleite kommt nicht ganz überraschend: Bereits im Februar hatte das Flaggschiff der amerikanischen New-Economy-Medien im Zuge des rückläufigen Anzeigenaufkommens 69 Angestellte entlassen müssen. Im Januar war eine erste Massenkündigungswelle erfolgt. In den vergangenen Monaten hat sich die Situation nun nochmals deutlich zugespitzt. Seit Jahresbeginn ist die Zahl der gebuchten Anzeigen um 75 Prozent gefallen. Den drastischen Werberückgang dokumentierte der beständig schwindende Umfang des Wochenmagazins: Im Februar 2000 zählte der Standard noch stolze 228 Seiten. Dieses Frühjahr kam das Heft gerade noch auf 120 Seiten, Mitte Mai nur noch auf 80. Kein anderes Internet-Magazin hat den dramatischen Aufstieg und Niedergang der Online-Ökonomie so durchlitten wie der Industry Standard.
Im April 1998 gegründet, etablierte sich die Zeitschrift schnell als das Sprachrohr der boomenden Netz-Welt. Schier unendlich schien der Fundus an Erfolgsgeschichten über die aufstrebende Internet-Szene. Die WerbeIndustrie bescherte dem jungen Verlagshaus binnen kürzester Zeit Anzeigenrekorde: Vergangenes Jahr konnte das WebBlatt rund 7 600 Anzeigenseiten verkaufen. Das Unternehmen erwirtschaftete damit ein Plus von 140 Millionen US-Dollar und überschritt innerhalb von nur drei Jahren die Geweinnschwelle - ein seltenes Kunststück im Magazin Geschäft. Brachnetypisch schmiss die San Franciscoer Redaktion dutzende opulente Partys. Zur Hochphase beschäftigte das Medienhaus immerhin rund 400 Mitarbeiter, darunter etwa 130 Redakteure. Im Oktober vergangenen Jahres wurde auch eine EuropaAusgabe gestartet, die von 60 Angestellten in London produziert wurde. Auch journalistisch wurde die Arbeit des Standard mehrfach ausgezeichnet. Mit dem Absturz der New Economy verdüsterten sich in jüngster Vergangenheit die Schlagzeilen in der Internet-Presse. Immer regelmäßiger berichtete die NetzPostille nun über Massenentlassungen, Pleiten, Pech und Pannen in der Dotcom-Industrie. Die Werbungstreibenden reagierten mit Etatstreichungen. Zudem gingen viele Standard-Anzeigenkunden aus dem Online-Lager pleite. Dasselbe Schicksal ereilt nun das Internet-Zentralorgan aus San Francisco. Nachdem seit Januar ein Verlust von 50 Millionen US-Dollar erwirtschaftet wurde, haben die Standar-Investoren um die Verlagsgruppe IDG (PC World, Macworld, Computerworld, Infoworld) den Stecker gezogen.
"Wir sind sehr enttäuscht, dass unsere finanzielle Situation diese Maßnahmen erfordert. Wir hoffen dennoch weiter, dass wir unsere Aktiva verkaufen können", ließ Standard Media International in einer Pressemitteilung verlauten. IDG kommentierte den Rückzug bislang nicht. Der Standard ist kein Einzelfall. Seit Monaten leiden auch amerikanische Konkurrenzblätter wie Red Herring oder Wired unter der Werbeflaute. Red Herring verschlankte sich binnen eines Jahres etwa von 350 Seiten Umfang auf 120 Seiten und musste bereits Ende vergangenen Jahres mehr als 20 Angestellte entlassen. Die Kult-IT-Bibel Wired konnte zu ihren besten Zeiten allein dem Inhaltsverzeichnis 72 Anzeigenseiten vorschalten. Ein Stapel der sechs wichtigsten amerikanischen Internet-Magazine - die alle aus San Francisco stammen - hatte im Juni vergangenen Jahres rund, fünf Kilogramm gewogen. Aktuelle Ausgaben von Wired, eCompany, Red Herring, Business 2.0, Upside und eben The Industry Standard bringen nun zusammen nicht mal mehr die Hälfte auf die Waage. In Deutschland ist die Situation der Web-Medien nicht besser: In den vergangenen Wochen mussten neben dem Milchstraßen-Titel Net-Business die zwei Münchner Objekte Business 2.0 und NetInvestor sowie die Handelsblatt-Publikation E-Business aufgeben. Die Zeitschriften eMarket und Tomorrow haben jüngst ihren Veröffentlichungsrhythmus halbiert: eMarket erscheint nur noch zweiwöchentlieh, Tomorrow nur noch monatlich. Bei Standard Media International in San Francisco sucht man derweil nach einem Käufer für den jetzt höchst defizitären Industry Standard. Die Online-Ausgabe der einstigen Cash-Cow", TheStandard.com, soll bis auf weiteres in einer abgespeckten Version weitergeführt werden. Amerikanischen Medienberichten zufolge sollen im Verlag sogar Pläne für die Wiederbelebung eines völlig neukonzipierten Magazins geschmiedet werden
-
bay/mo: ¬Das Internet holt die Telefonwelt ein : Plaudern über die Datenleitung interessiert viele Cebit-Besucher - die Technik hilft, Geld zu sparen und treibt den Wettbewerb an (2004)
0.01
0.0062385965 = product of:
0.024954386 = sum of:
0.024954386 = weight(_text_:und in 3170) [ClassicSimilarity], result of:
0.024954386 = score(doc=3170,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22054097 = fieldWeight in 3170, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3170)
0.25 = coord(1/4)
- Content
- "Wenn Telefongesellschaften ihre Netze auf das Übertragungsprinzip des Internets umstellen - warum sollte man dann nicht gleich die Datenleitungen zum Telefonieren verwenden? Eine naheliegender Gedanke, der auf der Cebit viele Besucher begeistert. Voice over IP, die technische Bezeichnung des Verfahrens, hat sich unvorhergesehen zu einem Trend der Messe entwickelt. Erste Angebote, mit denen Privatleute unter Umständen ihre Telefonrechnung senken könne, liegen vor. Richtig los gehen wird es wohl erst im Sommer. Mit Voice over IP kann der herkömmliche Telefonkanal entfallen. Nötig ist nur die breitbandige DSL-Leitung. Über die geht die Sprache in From von Datenpaketen zum Internetprovider. Der prüft in einer Kartei, ob der Angerufene ebenfalls per Datenleitung erreichbar ist. Falls ja, stellt er das Gespräch durch - in der Regel kostenlos, weil nur das interne Netz benötigt wird. Ist der Partner nur analog oder per ISDN angebunden, leitet der Anbieter das Gespräch ins herkömmliche Netz weiter - und verlangt dafür zeitbezogene Preise. Die liegen zumindest für nationale Festnetzverbindungen meistens unter denen der Deutschen Telekom. Allerdings ist die Umleitung bei manchen Anbietern noch teurer als Telefonate mit Call-by-call-Sparvorwahlen. - Eigene Vorwahl geplant - Die Regulierungsbehörde für Telekommunikation und Post reagiert auf die Aufbruchstimmung. Die Behörde schlägt eine Nummerngasse für "innovative Services" vor. IP-Telefonierer können daher noch für dieses Jahr damit rechnen, eine ortsunabhängige Vorwahl zu bekommen. Bisher behilft sich der Anbieter Indigo Networks für sein Projekt Sipgate mit Rufnummern aus Düsseldorf, Essen, Hamburg, Nürnberg, London und Reading. Kunden haben, unabhängig vom Wohnort, die freie Wahl.
Die Anbieter setzen auf unterschiedliche Hardware-Konzepte. Für Sipgate müssen die Kunden etwa ein spezielles IP-Telefon für 100 Euro kaufen. Zudem benötigen sie einen DSL-Router, um Telefon und Computer gleichzeitig verwenden zu können. Die Installation gestaltet sich schwierig, wenn der Router gleichzeitig mit einer Firewall-Komponente Viren- und Hackerangriffe aus dem Internet stoppen will - denn die User müssen diese Funktion für die Leitung zum IP-Telefon ausschalten. Beim Provider Freenet klappt das Telefonieren ohne Extrageräte: Wer plaudern will, verwendet eine Software am Computer, Mikrofon und Kopfhörer. Gewichtiger Nachteil dabei: Um erreichbar zu sein, muss der Rechner stets angeschaltet bleiben. Ein Anruf ins Festnetz kostet über die Hamburger deutschlandweit einen Cent je Minute, zum Handy 19 Cent. Gespräche zu anderen "iPhone"-Kunden sind frei. Eine bequeme Lösung stellt der Berliner Hersteller AVM auf der Cebit aus: Die "Fritz Box Fon" ist DSL-Modem, Router und Voice-over-IP-Telefonanlage in einem. Daran lassen sich zwei analoge Telefone anschließen. Wird das Gerät zusätzlich mit einem ISDN-Anschluss verbunden, können Anrufer mit einem Nummerncode auf Wunsch die herkömmliche Telefonverbindung anfordern - etwa wenn die am Sonntag kostenlos sind. Freenet will die AVM-Box vermarkten, auch der Montabaurer Provider 1 & 1 setzt auf sie. Interessant kann die Datentelefonie auch für unterwegs werden. Denn die Softwarelösungen laufen in Kürze auch auf den kleinen elektronischen Assistenten (PDA). Die gehen dann per Wireless LAN online. Die Mobilfunkbetreiber, die UMTS verkaufen wollen, wird das nicht freuen. Zumal mit 1&1 Deutschlands zweitgrößter DSL-Provider (bezogen auf die Kundenzahl) in Hannover ankündigt, seine Breitbandnutzer könnten bald von ausgewählten Stellen aus zehn Stunden pro Monat kostenlos über die Funktechnik ins Internet gehen. Das Telekommunikationsunternehmen Arcor hat ähnliche Pläne.
- Unerwartete Konkurrenz - Betreiber von Datennetzen wie Broadnet Mediascape sehen in Voice over IP eine Chance, an Privatkunden heranzukommen. Die Hamburger werben auf der Cebit mit Preisvorteilen für ihr DSL-Paket samt Datentelefonie - verglichen mit einem DSLAnschluss der Deutschen Telekom zuzüglich der Gebühren für den pauschal berechneten Internetzugang mit T-Online. Wie beispielsweise auch der Kölner Anbieter QSC mietet der Provider dazu das letzte Kabelstück zum Festpreis von der Deutschen Telekom und setzt in den Privatwohnungen eine eigene Anschlussdose. Damit könnte die Datentelefonie unverhofft den Wettbewerb auf dem Telekommunikationsmarkt beleben. "Wenn mehr Provider solche Angebote machen, muss sich die Telekom warm anziehen% sagt Ulrich Abend von bei IpTel, einer Ausgliederung der Fraunhofer Gesellschaft. Wohl vor allem wegen der neuartigen Konkurrenz aus dem Internet denkt der magentafarbene Marktführer über einen Optionstarif nach, bei dem ein einstündiges Gespräch pauschal zehn Cent kosten soll."
-
Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003)
0.01
0.0062385965 = product of:
0.024954386 = sum of:
0.024954386 = weight(_text_:und in 5558) [ClassicSimilarity], result of:
0.024954386 = score(doc=5558,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22054097 = fieldWeight in 5558, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=5558)
0.25 = coord(1/4)
- Abstract
- Google dominiert mit einer effektiven Technologie dem Markt. Die Konkurrenz buhlt mit neuen Geschäftsmodellen und verbesserter Suche um Surfergunst
- Content
- "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
-
Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005)
0.01
0.0062385965 = product of:
0.024954386 = sum of:
0.024954386 = weight(_text_:und in 177) [ClassicSimilarity], result of:
0.024954386 = score(doc=177,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22054097 = fieldWeight in 177, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=177)
0.25 = coord(1/4)
- Content
- "Thomas Schick ist begeisterter Internetsurfer. Er nutzt das World Wide Web mehrmals täglich - sowohl beruflich als auch privat. Ich hole mir die Informationen, die ich brauche, fast nur noch aus dem Netz", so der 30-jährige Düsseldorfer. Seine Haupt-Recherchequelle ist dabei die Suchmaschine Google. "Dort finde ich einfach alles", lautet sein kurzes Statement. Wie Schick greift der Großteil der Internetnutzer weltweit auf die mittlerweile beliebteste und meist genutzte Suchmaschine zu. 200 Millionen Abrufe täglich wurden im Jähr 2004 unter www.google.com und den mehr als 85 internationalen Ablegern registriert. Sie rangiert damit weit vor den Suchmaschinen von Yahoo oder Microsoft. Angeblich sollen mehr als 70 Prozent aller Anfragen im Internet über Google laufen. Am 7. September 1998 ging die von den beiden Studenten Larry Page und Sergey Brin entwickelte Suchmaschine als Nachfolger ihrer Suchsoftware Pagerank ins Netz. Mittlerweile gehört ihre einstige Garagen-Firma mit über 3000 Mitarbeitern zu den bekanntesten Marken weltweit und ist seit August 2004 sogar an der Börse notiert. Laut "Financial Times" gehört Google - gemessen am Börsenwert - inzwischen zu den hundert größten Unternehmen weltweit. Der Name Google leitet sich von dem mathematischen Begriff Googol ab, der für eine 1 gefolgt von 100 Nullen steht - also ein riesiger Wert. Hiermit soll auf die immense Zahl von Webseiten, auf die Google zugreift, bereits im Namen hingewiesen werden. In Wirklichkeit greift Google allerdings nach Angaben des Computerverlages heise.de "nur" auf etwas mehr als acht Milliarden Seiten zu. Bei geschätzten 500 Milliarden Webseiten Weltweit macht sich diese Zahl dann doch recht klein aus. Dennoch umfasst die Google-Suche weit mehr als die anderer Suchmaschinen: Doch nicht nur eine allgemeine Text-Suche ist bei Google möglich. Es gibt auch Funktionen, die nach Bildern suchen oder auf Wörterbücher, Fahrpläne der Bahn, Stadtpläne und Aktienkurse zugreifen. Auch die Shopping-Suchmaschine Froogle oder der Freemail-Dienst Gmail gehören mittlerweile zum Angebot. Die Omnipräsenz von Google in Deutschland lässt sich allein schon daran ablesen, dass der Begriff "googeln" sogar Einzug in den guten alten Duden gefunden hat. Dort findet man den Eintrag seit der 23. Auflage (2004). "Googeln" bedeutet laut Duden im Allgemeinen etwas im Internet suchen und im Besonderen die Suche in der Suchmaschine Google. Die Marke Google ist also zu einem Synonym für Internetrecherche schlechthin geworden. Dem minimalistischen Design der Startseite ist Google bis heute treu geblieben. An bestimmten Tagen oder zu Ereignissen - so zum Beispiel an Weihnachten oder zu den Olympischen Spielen - wird das Logo allerdings zum Thema des Tages passend verändert. Diese so genannten Google Doodles ersetzen dann das normale Logo. Sie werden alle von dem Koreaner Dennis Hwang entworfen.
Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
- Footnote
- Mit einem Foto von Larry Page (links) und Sergey Brin
-
Martens, R.: Digital abgekupfert : Programmheft-Anbieter und Privatsender streiten um Urheberrechte im Online-Bereich (2009)
0.01
0.0062385965 = product of:
0.024954386 = sum of:
0.024954386 = weight(_text_:und in 3728) [ClassicSimilarity], result of:
0.024954386 = score(doc=3728,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.22054097 = fieldWeight in 3728, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3728)
0.25 = coord(1/4)
- Content
- "Dass es Programmzeitschriften gibt wie TV Digital oder TV Spielfilm und seit vielen Jahren auch Ableger im Internet, müsste im Sinne aller Fernsehsender sein, denn die Zeitschriften bieten ihnen ja quasi eine Bühne. Seit einigen Monaten aber beschäftigt sich das Landgericht Köln mit einem Streit, der das Verhältnis zwischen den Medienpartnern langfristig schädigen könnte. Kläger ist der Verband Deutscher Zeitschriftenverleger (VDZ). Er vertritt die im Progammmagazingeschäft aktiven Verlage (vor allem Bauer, Springer, Milchstraße). Kontrahent ist die Verwertungsgesellschaft VG Media, die die Urheberrechte von 36 privaten TV-Sendern wahrnimmt. Die Gesellschaft gehört zu je 50 Prozent der RTL-Gruppe und ProSiebenSat1. Anlass des Streits ist ein Lizenzvertrag, der die Nutzung von Texten, Bildern und Trailern regeln soll, die die Sender digital bereitstellen. Dem VDZ stößt zweierlei auf: Die TV-Anbieter fordern von den Zeitschriften Geld dafür, dass sie die Basisinformationen im Internet verwenden. 0,002 Cent pro Seitenabruf sollen fällig werden. Außerdem verlangen sie, dass die Programme bei den Online-Ablegern diskriminierungsfrei dargestellt werden. Was bedeutet das? Die Verfasser des Vertrags beziehen sich auf Empfehlungen, die ARD, ZDF und der Verband Privater Rundfunk und Telekommunikation (VPRT) 2006 in einer gemeinsamen Erklärung für Electronic Program Guides (EPGs) fixiert haben. Dort heißt es, EPGs sollten ohne redaktionelle Hervorhebungen wie Tipp des Tages und "grundsätzlich werbefrei ausgestaltet werden".
Die Öffentlich-Rechtlichen und der VPRT dürften aber kaum angestrebt haben, Regeln für die Online-Berichterstattung von Programmzeitschriften zu definieren. Vielmehr zielten die Empfehlungen auf nicht-journalistische Program Guides: Man wollte der Entwicklung Rechnung tragen, dass es im Zuge der Digitalisierung Kabelnetzbetreibern oder Geräteherstellern möglich ist, Kunden eigene Programmübersichten zur Verfügung zu stellen. Vordergründig geht es bei dem Streit um urheberrechtliche Fragen. Jenseits davon ist die Causa interessant, weil sie wieder die Diskussion anstößt, inwieweit Medienanbieter, die sich offline nicht ins Gehege kommen, im Internet miteinander konkurrieren - etwa um Werbegelder. Wenn Sender den Online-Ablegern der TV-Zeitschriften Fotos und sonstiges Material künftig nicht mehr kostenlos zur Verfügung stellen wollen, weil letztere ihre Attraktivität bei Werbekunden erhöhen können, dann muss man das nicht grundsätzlich abwegig finden. Die Frage ist allerdings, ob die Gefahr, sich selbst zu schaden, nicht ungleich größer ist, wenn man diese Informationen nicht mehr liefert. Die Forderungen der VG Media betreffen explizit nur die Online-Verwertung, sie gelten nicht für die Printmütter der Programmblätter. Es gehe darum, "Spielregeln für die Zukunft zu definieren", schließlich werde "auf mittel- bis langfristige Sicht die digitale Nutzung von Pressematerialien deutlich wichtiger als die Print-Nutzung", sagt Geschäftsführer Hans-Henning Arnold dem Branchendienst dwdl.de. Die VG Media hält ihr Anliegen deshalb für legitim, weil auch Radiosender für die Nutzung von Urheberrechten zahlen müssen - obwohl sie zweifellos für einen Tonträger werben, wenn sie einen Song spielen.
-
MPG Presse: Wie das Gehirn Handlungen "abkupfert" (2000)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 6571) [ClassicSimilarity], result of:
0.02479987 = score(doc=6571,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 6571, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6571)
0.25 = coord(1/4)
- Abstract
- Psychologen und Hirnforscher haben gemeinsam die Grundlagen des Imitationsmechanismus im menschlichen Gehirn aufgedeckt. Offenbar besteht eine direkte neurale Verknüpfung zwischen der Wahrnehmung und der Ausführung einer Handlung. Wenn man zweimal das gleiche tut, ist es für das Gehirn nicht immer dasselbe: Ahmt man eine gesehene Bewegung nach, so werden andere Gehirnareale aktiviert, als wenn man die gleiche Bewegung auf einen symbolischen Reiz hin ausführt. Das bedeutet, daß imitative Handlungen in gesonderten Mechanismen der Hirnrinde verankert sind. Zu diesem Befund kamen Wissenschaftler des Münchner Max-Planck-Instituts für psychologische Forschung in Zusammenarbeit mit Forschern der University of California in Los Angeles (UCLA) sowie der Universität Parma (SCIENCE, 24. Dezember 1999). Andere nachahmen ist kinderleicht - so scheint es auf den ersten Blick. Doch bei näherem Hinsehen zeigt sich, daß das Phänomen Nachahmung keineswegs einfach zu verstehen ist. Denn wer nachahmt, führt dabei selbst eine bestimmte Handlung aus, die er zuvor bei anderen gesehen hat. Wie aber kann der Nachahmende wissen, welche Bewegungen er ausführen muß, um eine gleiche oder zumindest weithin ähnliche - Handlung zustande zu bringen? Oder anders gefragt: Wie können die motorischen Zentren im Gehirn Körperbewegungen hervorbringen, die denen entsprechen, die in den sensorischen Wahrnehmungszentren repräsentiert sind? Mit dieser Frage beschäftigen sich seit langem Forscher der unterschiedlichsten Fachdisziplinen. Harold Bekkering und Marcel Braß vorn Max-Planck-Institut für psychologische Forschung in München gingen das Problem aus dem Blickwinkel der Kognitionspsychologie an: Wie, so ihre Fragestellung, kann eine beobachtete Handlung in den entsprechenden motorischen Akt umgesetzt werden? Dazu lagen bisher nur tierexperimentelle Befunde vor, die eine Arbeitsgruppe unter Giacomo Rizzolatti an der Universität Parma gewonnen hatte: Sie belegten die Existenz sogenannter Mirror- oder Spiegel-Neuronen im prämotorischen Kortex von Affen, die gleichzeitig beobachtete und auszuführende Handlungen kodieren. Daraus schloß man auf einen spezifischen "lmitationsmechanismus", der wahrgenommene und auszuführende Handlungen direkt aufeinander abbildet
-
Danowski, P.; Voß, J.: Wikipedia sammelt Metadaten (2005)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 6782) [ClassicSimilarity], result of:
0.02479987 = score(doc=6782,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 6782, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6782)
0.25 = coord(1/4)
- Abstract
- Im Rahmen der Vorbereitung auf die Wikipedia-DVD, die zur Buchmesse in Leipzig erscheinen soll, wurden fast 30.000 Artikel der freien Enzyklopädie Wikipedia mit Personendaten versehen. Damit sind die biographischen Artikel erstmals mit strukturierten Metadaten versehen, die wie alle Inhalte des Projekts unter den Bedingungen der GFDL frei weiterverwendet werden können. Die Personendaten umfassen Angaben zu Namen, Geburtsdatum, Geburtsort, Sterbedatum und Sterbeort. Gleichzeitig wird eine Kurzbeschreibung zu den einzelnen Personen gespeichert. Bisher waren diese Daten nur im Fließtext und Personennamen nur in der Form "Vorname Nachname" abgespeichert. Da auf der DVD jedoch eine gezielte Suche nach Personen möglich sein soll, müssen die Namen und anderen Angaben einheitlich, wie es in bibliothekarischen Datenbanken die Regel ist, in der Form "Nachname, Vorname" angesetzt werden. Ziel der Sammlung von Personendaten ist die dokumentarische Erschließung aller biographischen Artikel. Da wie an der gesamten Wikipedia viele Freiwillige an diesem Prozess beteiligt sind, entsprechen die Ergebnisse sicherlich noch nicht professionellen Regelwerken wie RAK. Sie sind ein erster Schritt um die Wikipedia besser automatisch weiterverwendbar zu machen und somit neue Möglichkeiten der Anwendung zu erschließen. Die Personendaten wurden zum größten Teil in einer vom Verlag Directmedia Publishing ausgerichteten "Tagging-Party" vom 28. bis 30. Januar mit Hilfe eines selbst entwickelten Softwaretools direkt in Online-Enzyklopädie eingetragen. Dazu wurden alle Artikel angeschaut und Fehler in den Datenfeldern korrigiert. Die Strukturierung der Personendaten könnte noch wesentlich durch bestehende bibliothekarische Datenbanken wie die Personennormdatei (PND) verbessert werden. Bibliotheken könnten im Gegenzug die Informationen aus der Wikipedia zur Kataloganreicherung nutzen - beispielsweise zur Anzeige von Kurzbiographien zu einzelnen Autoren. Auch weitere Kooperationsmöglichkeiten sind denkbar. Bei Interesse können Sie sich an Jakob Voss oder Patrick Danowski wenden.
-
Janositz, P.: Taube Musiker (2001)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 922) [ClassicSimilarity], result of:
0.02479987 = score(doc=922,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 922, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=922)
0.25 = coord(1/4)
- Content
- "Wer normal hört, kann sich wohl schwer vorstellen, wie taube Menschen eine Welt erleben, die stets von Geräuschen erfüllt ist. Eine riesige, spiegelglatte Wasserfläche, die kein noch so starker Wind in Wallung bringt, könnte eine Analogie sein. Doch gerade dieses Bild wäre falsch, denn Schall breitet sich in Schwingungen aus. Unsere Welt ist voller Schwingungen. Wenn das Hörorgan funktioniert, wird die mechanische Energie der Schallechwingungen in der Hörschnecke des Innenohres in elektrische Reize umgewandelt. Über Nervenleitungen gelangen diese Signale ins Gehirn, wo sie verarbeitet und als Töne registriert werden. Menschen, bei denen dieser Vorgang gestört ist, können schlecht oder gar nicht hören, also auch keine Musik genießen, könnte man meinen. Gehörlosen Kindern Musik vorzuspielen oder gar Musiktherapie zu propagieren, erscheint sinnlos. Doch das ist ein voreiliger Schluss, der nicht die Flexibilität unseres Gehirns berücksichtigt. Denn das Denkorgan verfügt über erstaunliche Fähigkeiten, sich individuellen Anforderungen und den Gegebenheiten der Umwelt anzupassen. Dem noch sehr unvollständigen Bild von der Funktionsweise unseres Gehirns hat der US-Forscher Dean Shibata jetzt einen weiteren Mosaikstein hinzugefügt. Demnach empfinden Menschen, die taub sind, Musik ähnlich wie Personen mit intaktem Gehör. Anscheinend ist es nichtwesentlich, auf welchem Wege die Schallwellen ins Gehirn gelangen. Sie können auch mit Haut und Knochen, die nicht zum Ohr gehören, gefühlt werden. "Die von Musik hervorgerufenen Schwingungen werden bei Tauben in dem Teil des Gehirns verarbeitet, den andere Menschen fürs Hören benutzen", erklärte der Mediziner von der Universität Washington jetzt auf dem Jahrestreffen der Radiologischen Gesellschaft von Nordamerika. Die Informationen, die in Vibrationen stecken, haben demnach denselben Gehalt wie Informationen, die Töne liefern. Gehörlose können sich ebenso wie Hörende an Musik-Darbietungen erfreuen und sogar selbst musizieren. Der Radiologe fand heraus, dass bei gehörlosen Menschen ein zusätzlicher Hirnbereich beteiligt ist, wenn sie Musik empfinden. Es handelt sich um eine etwa golfballgroße Region, die bei Menschen mit Intaktem Gehör passiv bleibt. "Diese Ergebnisse zeigen, wie veränderte Erfahrungen die Organisation des Gehirns beeinflussen können", sagt Shibata. Früher habe man angenommen, dass das Gehirn bei der Geburt praktisch fest verdrahtet sei und dass ein bestimmter Teil immer dieselbe Funktion habe. "Glücklicherweise" - so der Radiologe - bestimmten nicht ausschließlich die Gene die "Verkabelung" des Gehirns. Sie geben nur die Entwicklungsstrategie vor, nach der alle Teile des Gehirns mit maximalem Potenzial benutzt werden können. Shibata plädiert dafür, taube Kinder möglichst früh mit Musik zu konfrontieren, um die entsprechenden Hirnregionen anzuregen. Ähnliches scheint für das Verstehen von Sprache möglich zu sein. Hier gibt es Apparate, die helfen, die Schwingungen gesprochener Töne zu ertasten. Man sollte Kinder damit vertraut machen, solange such ihr Gehirn noch entwickele, rät Shibata."
-
bay: Internet-Filter : Blockade-System funktioniert nicht (2002)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 1588) [ClassicSimilarity], result of:
0.02479987 = score(doc=1588,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 1588, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1588)
0.25 = coord(1/4)
- Content
- "Den Unternehmen Webwasher, Bocatel und Intranet ist es in vier Monaten nicht gelungen, dafür ein Modellsystem an der Universität Dortmund einzurichten, berichtet der Leiter des Hochschulrechenzentrums, Günter Schwichtenberg. Es fehle die Software einer der beteiligten Firmen, ergänzt die Düsseldorfer Bezirksregierung. Sie hatte den bis Ende April begrenzten Feldversuch im Dezember mit ins Leben gerufen. Die Technik sollte auch zeigen, dass sich Sperrverfügungen ohne großen Aufwand für die Zugangs-Provider umsetzen lassen - und damit zumutbar sind. Endgültig gescheitert ist das Projekt damit nicht: "Es ist absehbar, dass es gelingen kann", erläutert Schwichtenberg. Allerdings sei fraglich, wer den nötigen Entwicklungsaufwand übernimmt. Die Bezirksregierung sagt, man hoffe, dass das System bis zum Jahresende funktioniert. Die Filter-Pläne waren von Anfang an umstritten. Regierungspräsident Jürgen Büssow (SPD) beruft sich auf den Jugendschutz und betrachtet Anweisungen an Internet-Firmen, bestimmte Seiten nicht an die Surfer weiterzugeben, als Ausweg für Fälle, in denen die ausländische Urheber nicht zum Löschen von Inhalten bewegt werden können. Gegner wie der Chaos Computer Club oder die Online-Initiative Odem sprechen von Zensur, der Providerverband Eco fürchtet einen "massiven administrativen Aufwand". Entsprechend unterschiedlich fallen die Reaktionen auf das vorläufige technische Scheitern aua Büssow wünscht sich, "dass die Internet-Wirtschaft weiter nach Lösungen sucht, um eine selbstregulierende Situation, die staatliche Regulierungsmaßnahmen weitgehend überflüssig machen könnte, zu finden". Eco verweist auf seine Hotline, bei der illegale Inhalte gemeldet werden können, und die bei Bedarf mit den Strafverfolgern zusammenarbeite. Für den Chaos Computer Club kann die Konsequenz nur heißen, "dass der Zensurversuch der Bezirksregierung mit sofortiger Wirkung abgebrochen wird". Odem hat nach eigenen Angaben mehr als 10 000 Unterschriften gegen eine "Einschränkung der Informationsfreiheit" gesammelt und empfiehlt der Düsseldorfer Verwaltung zum Verständnis der Funktionsweise des Internets die "Sendung mit der Maus". Hintergrund: Die geplanten Filter lassen sich technisch einfach austricksen. Die Bezirksregierung kündigt an, nun bis Mitte Juni über die Widersprüche gegen Sperrverfügungen von 38 InternetProvidern zu entscheiden. Die Deutsche Presse Agentur zitiert Büssow, er werde die Widersprüche zurückweisen. Es geht dabei um die Blockade von zwei US-Seiten mit rechtsextremistischen Inhalten. Den Zugangsanbietern bliebe dann der Weg zum Verwaltungsgericht."
-
Pasch, R.: Mit Sex zur CDU gelockt : Ortsverband operierte mit fragwürdigen Begriffen im Internet (2002)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 1861) [ClassicSimilarity], result of:
0.02479987 = score(doc=1861,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 1861, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1861)
0.25 = coord(1/4)
- Content
- Ein Bibliothekar aus Magdeburg stieß beim Surfen im Internet darauf, dass man beim Eingeben der Begriffe "Sex" und "Judenvernichtung", aber auch bei Worten wie "Stalingrad" und "Lenin" oder "Pille" und "Reißverschluss" auf den CDU-Seiten landen konnte. Der Mann wandte sich daraufhin an die Presse. Ortsverbandsvorsitzender Hochapfel bemühte sich am Freitag um Schadensbegrenzung: "Es tut mir leid." Die Idee für die Liste stammt von Rolf von Briel, Vorstandsmitglied der Fuldataler CDU und für die Erstellung der Internet-Seiten verantwortlich. Er habe laut Hochapfel auf eine Liste der Gesellschaft für Deutsche Sprache zurück gegriffen, in der die meist benutzten Begriffe der vergangenen hundert Jahre enthalten seien. Und darunter befanden sich eben auch solche "mit denen wir gar nichts zu tun haben wollen", wie Hochapfel versicherte. Waren "Bioladen" oder "Pop" eher unverfänglich, führten bisher auch Begriffe wie "Deportation" oder "Führer" auf die Fuldataler CDU-Seiten. Über solche - auf Internetseiten im Normalfall unsichtbaren - Schlüsselbegriffe (Keywords) wird die Verbindung zu den Suchmaschinen hergestellt. Der Inhalt der Keyword-Liste entscheidet, an welcher Stelle eine Seite in den Ranglisten einer Suchmaschine auftaucht. In seinem Eifer, möglichst viele Surfer anzulocken, sei von Briel allerdings etwas zu "unkritisch" vorgegangen, tadelte der Vorsitzende Hochapfel am Freitag das fehlende Gespür seines Parteifreundes. Der Inhalt der CDU-Seiten selbst ist allerdings eher nüchtern: Informationen über die Partei, Bilder vom Vorstand, Wahlkampfparolen. Autor von Briel wollte sich am Freitag nicht zu seinem Vorgehen äußern. Über mögliche Konsequenzen für den virtuellen Fehltritt des Parteimitglieds solle bei einer Vorstandssitzung entschieden werden, sagte Hochapfel."
-
Peine, S.: Benutzerfreundlich (2002)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 2417) [ClassicSimilarity], result of:
0.02479987 = score(doc=2417,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 2417, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2417)
0.25 = coord(1/4)
- Content
- "Kennt doch jeder: Man will in einer fremden Stadt am Automat einen Fahr schein für die Straßenbahn ziehen. Quälende Minuten später steht man immer noch vor dem vertrackten Gerät, nur viel wütender und vor' allem beschämt, weil man sich im Gewirr der Knöpfe, Straßenverzeichnisse und Tarife verheddert hat. Statt der Einzelfahrkarte für einen Erwachsenen hält man schließlich ein 24-Stunden-Familien-Ticket in der Hand. Das Ende vom Lied: Der Benutzer hält sich für technisch vertrottelt. Dabei ist genau das Gegenteil der Fall: Der Entwickler, der sich das Gerät ausdachte, besaß keinerlei Einfühlungsvermögen in die Logik des künftigen Benutzers. Nach leidvoller Erfahrung hat sich inzwischen die Erkenntnis durchgesetzt, dass Benutzerführung gelernt sein muss und sie nicht einfach technikvernarrten Ingenieuren überlassen werden darf An der Stuttgarter Hochschule für Medien gibt es deshalb seit dem Wintersemester 2001/2002 den Bachelor-Studiengang Informationsdesign - Studenten lernen in sieben Semestern, wie man Menschen sinnvoll durch den Informationsdschungel des 21. Jahrhunderts führt. Wie entwickelt man ein Orientierungsssystem für ein Museum, das den Besucher nicht in die Irre führt? Wie kommt ein Kunde am Bankautomaten zügig an sein Geld, ohne dass seine Karte wegen einer irrtümlich gedrückten Taste sofort verschluckt wird? Und wie schreibt man eine Gebrauchsanweisung, die tatsächlich ein technisches Gerät bedienen hilft? Klar, dass es hier nicht nur um Handwerk, sondern vor allem auch um das Verständnis menschlicher Kommunikation geht. In den USA und in Großbritannien ist der Studiengang Informationsdesign längst etabliert. Die Absolventen fänden problemlos Jobs, sagt der Stuttgarter Studiengangsleiter Professor Frank Thissen. Auch hier zu Lande scheint die Wirtschaft sehr angetan. Dabei hat sie das neue Berufsbild geradezu provoziert. Weil neue Produkte meist unter großem Zeitdruck entwickelt werden, sparen viele Firmen am Ende ausgerechnet an den Benutzertests. Auch manche Bedienungsanleitung verunzierte heute nicht die Welt, wäre sie zuvor nur ein einziges Mal mit technisch durchschnittlich begabten Menschen in Berührung gekommen. Welchen Nutzen hat schon ein Benutzerhandbuch, das einem derartige Anleitungen zumutet: "Wenn Sie die Druckformatvorlage eines Dokumentes mit der Druckformatvorlage einer Dokumentvorlage verbinden, ersetzen die Druckformatdefinitionen des Dokuments die gleichnamigen Druckformatdeflnitionen der Dokumentvorlage." Es gibt noch viel zu tun für die Informationsdesign-Studenten. Manchmal allerdings reichte gesunder Menschenverstand schon aus, um Peinlichkeiten zu vermeiden, so wie die Warnung auf dem Beipackzettel eines Schlafmittels: "Achtung, kann Müdigkeit verursachen!"."
-
Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 2719) [ClassicSimilarity], result of:
0.02479987 = score(doc=2719,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 2719, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2719)
0.25 = coord(1/4)
- Footnote
- Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
-
Karzaunikat, S.: Google zugemüllt : Spam überschwemmt die Suchergebnisse (2003)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 2963) [ClassicSimilarity], result of:
0.02479987 = score(doc=2963,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 2963, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2963)
0.25 = coord(1/4)
- Content
- Die Suche mit Google, früher meist auf Anhieb erfolgreich, bereitet in letzter Zeit zunehmend Frust. Sucht man zum Beispiel mit den Begriffen "kfz kaufen lüneburg" nach Autohändlern in der Heidestadt, erhält man als ersten Treffer eine Site, die laut Inhaltsangabe in der Trefferliste die Begriffe "Eu-Auto Neuwagenmarkt kaufen Reimport-Auto Fahrzeug" enthält. Als Adresse gibt die Suchmaschine eu-reimport-auto.department1.de/kaufen/ an. Doch dieser Treffer passt nur scheinbar gut zu der Anfrage. Klickt man nämlich auf den Link, landet man nach mehreren Weiterleitungen auf verschiedenen anderen Sites, meistens auf einer allgemeinen Startseite von eBay, http://pages.ebay. de, auf der man dann vergeblich nach "lüneburg" und "kfz" Ausschau hält. Sucht man mit der Abfrage "diascanner test" nach Diascanner-Vergleichen, dann führt der erste Treffer zur Ergebnisseite einer anderen Suchmaschine namens Biveroo mit nutzlosen Verweisen, obwohl der Link angeblich auf die Site www.sisira.de führen soll. Die zweite Site in der Trefferliste listet unter der Domain diascanner.org eBay-Auktionen und Links des Pay-forPerformance-Anbieters Espotting - also gekaufte Links, Werbung. Testberichte? Auch hier Fehlanzeige. Insgesamt finden sich unter den ersten zehn Verweisen nur drei relevante. Surfer erhalten bei Google-Recherchen im Umfeld von Produkten und Dienstleistungen immer mehr unbrauchbare oder in anderer Weise ungewöhnliche Treffer: Webseiten, die mit der Abfrage kaum etwas zu tun haben, zum Teil nicht einmal den Suchbegriff enthalten, wirre Linksammlungen oder gar Ergebnisseiten anderer Suchmaschinen. Mitunter landet man nach dem Klick auch bei einer anderen Adresse, als Googie in seiner Ergebnisliste angibt. Immer seltener finden sich neutrale Informationen; statt dessen landet der Surfer immer häufiger in irgendwelchen Online-Shops oder auf E-Commerce-Portalen. Verseuchte Ergebnisse Die Verseuchung der GoogleSuchergebnisse durch aufdringliche Geschäftemacherei ist findigen Tricksern zu verdanken. Sie haben Wege gefunden, bei immer mehr Suchanfragen ihre Links unter den ersten Treffern zu platzieren. So fällt nun auch Google einer Entwicklung anheim, die viele andere Suchdienste bereits vor Jahren heimgesucht und weitgehend unbrauchbar gemacht hat. Dabei galt doch der geniale Google-Algorithmus zur Bestimmung der Trefferrelevanz ("Ranking") lange Zeit als immun gegen Manipulationsversuche. Der Suchmaschinenprimus zieht nicht nur die in den HTMLSeiten enthaltenen Schlüsselwörter heran, wie es die Suchdienste in der Vor-Google-Ära taten. Stattdessen bestimmen bei Google vor allem Verweise fremder Seiten und damit die Wertschätzung durch andere Webmaster darüber, welche Position eine Website in der Trefferliste erhält. Aber nicht nur die bloße Anzahl der Links, sondern auch der Rang der verweisenden Website fließt in die Bewertung ein. Daraus errechnet Google den so genannten Page Rank, benannt übrigens nach dem Erfinder Larry Page [11. Jedermann kann sich mit der erweiterten Version der Google-Toolbar für den Internet Explorer den Page Rank beliebiger Seiten anzeigen lassen.
-
Funk, V.: Wirbel um Sperrung von Wikipedia : Linken-Politiker Heilmann geht gegen Online-Lexikon vor - und gibt dann doch klein bei (2008)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 2976) [ClassicSimilarity], result of:
0.02479987 = score(doc=2976,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 2976, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2976)
0.25 = coord(1/4)
- Content
- "Erst ließ er tagelang die deutsche Startseite des Online-Lexikons Wikipedia sperren, dann zog er sich kleinlaut zurück: Lutz Heilmann, Bundestagsabgeordneter der Linken. Mit der weltweiten Community der Wiki-Fans und Autoren angelegt hatte er sich wegen vier angeblicher Falschbehauptungen über ihn in der Internet-Enzyklopädie. Heilmann erwirkte am vergangenen Donnerstag gerichtlich eine Einstellung der Weiterleitung von wikipedia.de zu de.wikipedia.org. Wer am Wochenende dort schnell mal etwas nachschlagen wollte, stieß auf eine Wand: "Mit einstweiliger Verfügung des Landgerichts Lübeck (...), erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, 'die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten'". Nur über Umwege gelangte man zu den Inhalten. Am Sonntag erklärte Heilmann dann überraschend seinen juristischen Clinch mit dem Verein Wikimedia Deutschland für beendet. Die "falschen" Inhalte seien weitgehend aus dem entsprechenden Wikipedia-Artikel entfernt worden. Heilmann hatte sich schon mehrfach über den Artikel zu seiner Person auf Wikipedia geärgert. Diesmal ging es um vier Punkte, erklärte der Anwalt von Wikimedia Deutschland, Thorsten Feldmann, der FR, ohne weitere Details nennen zu wollen. Ein möglicher Streitpunkt: die Stasi-Vergangenheit des 42-jährigen Juristen Heilmann. Er hatte, nach Angaben auf seiner Bundestags-Website, im Personenschutz der Stasi von 1985 bis 1990 gedient - unklar bleibt, von wann bis wann genau. Bei der Nominierung zur Kandidatur für die Bundestagswahl 2005 hatte er dies nicht erzählt, ein "Fehler", sagte er später, nachdem Medien ihn darauf ansprachen.
Medienhype zwingt vermutlich zum Rückzug Der Sperre per einstweiliger Verfügung ging eine Abmahnung durch Heilmanns Anwälte voraus. "Unsere Erklärung zu den einzelnen Punkten der Abmahnung ist dem Gericht beim Antrag auf die einstweilige Verfügung vorenthalten worden", kritisiert Feldmann. Die Streitpunkte rechtfertigten eine Sperrung der Seite auf gar keinen Fall. Vermutlich war es nicht das Argument des Wiki-Anwaltes, das Heilmann Sonntagfrüh eines besseren belehrte, sondern der Medienhype, den er mit seiner Attacke auslöste. Heilmann zog gesenkten Hauptes vor die Online-Community und schrieb in einer Pressemitteilung: "Ich bedaure außerordentlich, dass durch die von mir beantragte einstweilige Verfügung des Landgerichts Lübeck die deutschen Wikipedia-Userinnen und -User in den letzten 24 Stunden keinen direkten Zugriff mehr auf die Wikipedia-Inhalte hatten." Am Samstag hatte sich die Nachricht über die Sperre schnell in diversen Online-Publikationen verbreitet. Doch wirklich weh tun wird Heilmann in Zukunft etwas anderes: Seine Aktion ist bereits unter anderem auf der englischen, polnischen und dänischen Seite von Wikipedia dokumentiert. So wird sein juristischer Schnellschuss auch in Zukunft ein Abschnitt in seiner Wiki-Biographie bleiben."
-
Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 3061) [ClassicSimilarity], result of:
0.02479987 = score(doc=3061,freq=40.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 3061, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3061)
0.25 = coord(1/4)
- Abstract
- Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
- Content
- "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
- Imprint
- Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
-
Honnigfort, B.: Polizeifehler verlängerte Stephanies Leid : Sächsische Ermittler geben Panne im Entführungsfall zu - Beamter suchte in der falschen PC-Datei (2006)
0.01
0.0061999676 = product of:
0.02479987 = sum of:
0.02479987 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
0.02479987 = score(doc=3128,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2191754 = fieldWeight in 3128, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3128)
0.25 = coord(1/4)
- Content
- "Sachsens Innenminister Albrecht Buttolo (CDU) und Landespolizeipräsident Klaus Fleischmann gaben am Dienstag in Dresden einen Ermittlungsfehler zu. Womöglich hätte der Entführer der 13-Jährigen ohne das Versehen früher enttarnt werden können. Der Name des mehrfach vorbestraften Mannes war demnach im Computer der Polizei gespeichert, auch sein aktueller Wohnort. Die Polizei überprüfte etliche Vorbestrafte in der Umgebung des Elternhauses. Allerdings nicht den 35-Jährigen, der Stephanie tatsächlich entführt hatte. Der Grund, so Polizeipräsident Fleischmann, sei ein Computeranwenderfehler gewesen. Ein Ermittlungsbeamter habe unter der aktuellen Rubrik "Sexualstraftaten" gefahndet, nicht aber unter der Rubrik "sexuell motivierte Straftaten`, einer Datei, die bis Herbst 2002 Namen und Adressen von Tätern führte, darunter den Namen des Entführers. Hätte der Beamte auch in die zweite Datei gesehen, wäre der Polizei womöglich der Täter aufgefallen, der ganz in der Nähe des Mädchens wohnte. "Ein Mann hat falsch geklickt"; beschrieb Fleischmann den kleinen Fehler mit der großen Wirkung. Der vorbestrafte Sexualtäter hatte Stephanie mutmaßlich am 11. Januar auf dem Weg zum Gymnasium verschleppt, dann 36 Tage in seiner Wohnung in einer Kiste gefangen gehalten und mehrmals sexuell misshandelt. Am 16. Februar befreite die Polizei das Mädchen, nachdem ein Fußgänger ihren Hilferuf auf einem Zettel gefunden hatte. Sachsens Innenminister Buttolo sagte am Dienstag: "Ein Alptraum, wenn man sich vorstellt, dass dieses Sexmonster Stephanie mehrfach missbraucht hat." Dem Ende der Entführung waren umfangreiche Ermittlungen vorausgegangen, wie es sie selten in Dresden gegeben hatte. Eine Sonderkommission forschte nach dem Kind, mit Hubschraubern und Hunden wurden ganze Wälder abgesucht. Viele falsche Hinweise Es habe etliche Hinweise gegeben, sagte Polizeipräsident Fleischmann. Doch kein einziger sei richtig gewesen. Fünf Wochen lang habe die Polizei nicht eine einzige Spur gehabt und nicht gewusst, ob das Mädchen entführt worden, womöglich nur von zu Hause weggelaufen oder bei einem Unfall verunglückt sei."