-
Langer, U.: ¬Der öffentlich-rechtliche Sündenfall : ARD und ZDF bauen ihre Internet-Auftritte aus und ziehen dabei den Ärger der kommerziellen Konkurrenz auf sich (2001)
0.01
0.007471598 = product of:
0.029886393 = sum of:
0.029886393 = weight(_text_:und in 4573) [ClassicSimilarity], result of:
0.029886393 = score(doc=4573,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25258717 = fieldWeight in 4573, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4573)
0.25 = coord(1/4)
- Abstract
- Fritz Pleitgen geht in die Offensive. Der WDR-Intendant und ARD-Vorsitzende sieht nur Gutes darin, wenn die ARD künftig im Internet stärker präsent wäre. In seiner Vision ist das Internet die universale Plattform für alle Rundfunkdienste, und in einem solchen Konzept ist selbstverständlich auch für die öffentlich-rechtlicben Anstalten viel Platz. Angriff ist die beste Verteidigung, und so sprach Pleitgen von Lücken in der Angebotspalette", die ,ohne ein öffentlich-rechtliches Engagement im Internet nicht mehr korrigierbar waren". Und er warf die, grundsätzliche Frage auf, ob eigentlich alle von den öffentlich-rechtlichen Sendern über das Datennetz bereitgestellten Dienste vom Gebührenzahler zu finanzieren seien. Das Forum in dem Pleitgen seine Vision vom Netz der Netze vorstellte, hatte er mit Bedacht gewählt: der Medienausschuss des CDU-Wirtschaftsbeirats. Das ist deswegen bemerkenswert', weil Teile der Union - genauso wie die kommerziellen Rundfunksender und die Zeitungsverleger den öffentlich-rechtlichen Rundfunkanstalten im Internet nur die reine Begleitung des Fernseh- und Radioprogramms erlauben wollen. Er stelle seine Thesen ,abseits vom medienpolitischen Säbelgerassel" vor, betonte Pleitgen. Der ARD-Vorsitzende agiert auf vermintem Gelände. Die Branche beäugt zur Zeit argwöhnisch seine Planspiele, möglicherweise die Rundfunkarchive der ARD gegen Selbstkostenerstattung im Internet zu öffnen. Zwar wolle die ARD mit solchen Spezialdiensten, wie Pleitgen betont, kein Geld verdienen. Doch auch oder gerade das stößt den Konkurrenten sauer auf, denn gegen Rundfunkgebühren-subventionierte Audio- und Videodateien zum Herunterladen könnten sie nicht gewinnbringend konkurrieren. "Das ist Marktverzerrung", sagt Ursula Adelt, Geschäftsführerin des Interessenverbandes VPRT der kommerziellen Rundfunksender. Freilich: Würde die ARD Marktpreise erheben wollen, würden die Kritiker dies wiederum als unerlaubtes Eindringen in ihre Domäne E-Commerce brandmarken. Mit Auftragsgutachten versuchen die Kontrahenten ihre Positionen zu belegen. Pleitgen sieht sich von seinen Kritikern allerdings gründlich missverstanden.
"Ich will mit E-Commerce nichts zu tun haben", betont der ARD-Vorsitzende gegenüber der FR. Aber ebenso wie wir im Fernsehen Kassetten von Mitschnitten zu unseren Selbstkosten abgeben, sollten wir auch im Netz darüber nachdenken, bestimmte aufwändige Zusatzangebote mit einem Mehrwert gegen eine Kostenerstattung abzugeben." Keinesfalls wolle die ARD "marktscheierisch" ihre Archive bewerben. Vielmehr möchte die ARD online künftig ebenso wie heute schon offline spezielle Anfragen erfüllen dürfen, erläutert Pleitgen: "So wie Ich habe da eine Dokumentation gesehen, darin war mein Großvater zu sehen. Können sie mir diese Kassette nicht besorgen?' Oder ,Da lief eine interessante Sendung über Arthrose, die haben wir leider verpasst.' Dann bekommt der Interessent seinen Wunsch zum Selbstkostenpreis erfüllt. Das betrachte ich als Kundenservice, den man aber nicht dem Gebührenzahler aufbrummen sollte", so der ARD-Vorsitzende. Dennoch könnte den Rundfunkgebührenzahlern ab 2005 einiges an Mehrkosten aufgebrummt werden. 22 Millionen Mark pro Jahr dürfen die ARD-Anstalten derzeit in ihre Online-Aktivitäten investieren. Doch schon jetzt ist absehbar, dass die Sender mit dieser Summe nicht auskommen werden, um - wie geplant - ihr gemeinsames Dachportal ard.de und das Nachrichtenportal tagesschau.de auszubauen, Netz-Informationen zu Sport- und Börsenthemen anzubieten und die Angebote der einzelnen Sender weiter zu entwickeln. Rund 350 Millionen Mark wollen die ARD-Anstalten deshalb ab 2005 für ihre Internet-Pläne aus dem Gebührentopf herausholen. Mit der Forderung nach einer InternetGebühr ("Diesmal ist es fällig") zitierte am Montag das Fachblatt Der Kontakter Schleswig-Holsteins Ministerpräsidentin Heide Simonis. Die Ministerpräsidentin hat weder eine eigene noch eine zusätzliche Internetgebühr gefordert", dementierte dagegen Matthias Knothe, Leiter des Medienreferats in der Kieler Staatskanzlei. Simonis setze sich vielmehr wie bisher für eine allgemeine Geräteabgabe ab 2005 ein, so dass die Frage, ob ARD und ZDF per Fernseher, Internet oder UMTSHandy ins Haus kommen, künftig irrelevant werden könne. Zudem erläuterte Knothe gegenüber der FR: "Der öffentlich-rechtliche Rundftink ist online vertreten. Dieser Vertriebsweg versucht Kosten, die zu einer Erhöhung der Rundfunkgebühren führen können." Die Anstalten sollten daher überlegen, ob sie nicht in anderen Bereichen Gebühren einsparen könnten.
Beim ZDF steht die Forderung nach höheren Rundfunkgebühren nicht im Vordergrund. Rund acht Millionen Mark pro Jahr dürfen die Mainzer jährlich für ihre Online-Investitionen ausgeben. Zusätzlich kassiert. das ZDF nach Informationen aus der Branche noch einmal 6,5 Millionen Mark pro Jahr aus seinem neuen Kooperationsabkommen mit T-Online. Nach dem Auslaufen'seines bisherigen Deals mit dem US-Nachrichtenanbieter MSNBC will das ZDF im August mit Deutschlands führendem Online-Anbieter ein neues Nachrichtenportal unter der Adresse heute.t-online.de eröffnen. Kritiker sehen darin einen Sündenfall: Das ZDF könne angesichts solcher Summen künftig über T-Online und seinen Mutterkonzern Telekom kaum noch unabhängig berichten. Außerdem wachse T-Online durch die preiswerte Nutzung gebührenfinanzierter Fernsehinhalte ein wettbewerbswidriger Vorteil zu. Allein die Tatsache, dass das ZDF die neue Website einblenden wird, gilt als Gold wert. Falls Pleitgen mit seiner Grundsatzrede die Wogen der Kritiker glätten wollte, dann ist sein Kalkül nicht aufgegangen. Denn nun steht der Internet-Vordenker unter den ARD-Intendanten erst recht als Gebühren-ahmentierter Expansionist am Pranger. Von mangelnder Meinungsvielfalt im Internet, die ein öffentlich-rechtliches Gegengewicht gebiete, könne im Internet wohl kaum die Rede sein, betonen Kritiker. "Der öffentlich-rechtliche Rundfunk hat bei allem, was er macht, einen Heiligenschein", klagt Ursula Adelt, Geschäftsführerin des Interessenverbandes VPRT der kommerziellen Rundfunksender. "Das Thema Programmvielfalt ist im Internet sicherlich kein Thema", sagt auch Thomas Hesse, Geschäftsführer der RTL New Media GmbH. Auf die Strategie seines Unternehmens hätten die ARD-Pläne allerdings keinen Einfluss. ,Angesichts der schwierigen Refinanzierbarkeit von Inhalte-Angeboten im Internet ist es wahrscheinlich, dass sich mehr und mehr die Abrechnung von kleinen Gebühren für das Herunterladen von Videos durchsetzt. Man sieht das heute schon im Bereich der Musik", sagt Hesse. An die Zukunft solcher "micro-payments" im E-Commerce glaubt auch Pleitgen, schließt sie aber für die ARD auch künftig kategorisch aus. ZDF-Intendant Dieter Stolte und SWR-Intendant Peter Voss möchte wollen zudem das Werbeverbot für die ÖffentlichRechtlichen im Internet fallen sehen. Dazu sagt Pleitgen: Ich bin nicht sehr scharf auf Werbung. Ich glaube nicht, dass wir uns darüber im Internet refinanzieren können. Im Augenblick läuft sie schlecht. Und wir schaden unserem Image."
-
Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003)
0.01
0.007471598 = product of:
0.029886393 = sum of:
0.029886393 = weight(_text_:und in 1391) [ClassicSimilarity], result of:
0.029886393 = score(doc=1391,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25258717 = fieldWeight in 1391, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1391)
0.25 = coord(1/4)
- Abstract
- Wollen sich Menschen verständigen, brauchen sie eine gemeinsame Sprache. So wurde vor zwei Jahrtausenden in den Provinzen des römischen Imperiums fleißig Latein gelernt. Ähnlich ist das bei Computern; die miteinander in Kontakt treten: Sie benötigen eine gemeinsame Methode, um die Weltsprache digital abzubilden. Vor vier Jahrzehnten wurde sie geschaffen: Am 17. Juni 1963 bestimmte die "American Standards Association" (ASA), dass ein großes "A" der Zahlenfolge 1000001 entspricht. Genau 128 solcher siebenstelliger Binärcodes gibt es seither - entstanden war der"American National Standard Code for Information Interchange", ASCII. Die Bedeutung des offenen Standards rückt erst neuerdings wieder ins Bewusstsein der Netzöffentlichkeit. Bis vor kurzem war einer der Initiatoren von ASCII, der heute 83jährige Programmierer Bob Bemer, für seine Verdienste bei Programmiersprachen wie Cobol und Fortran bekannt. Jetzt hat ihm das renommierte amerikanische "Institute of Electrical and Electronics Engineer" (IEEE) die Auszeichnung "Computer Pioneer Award" verliehen - wegen seiner Verdienste um ASCII. Dass lange Zeit niemand an ASCII als besondere Errungenschaft dachte, liegt am Erfolg des Standards. Vor der Vereinheitlichung hatte jeder Computerhersteller seine eigenen Methoden, um Zeichen wie Buchstaben digital abzubilden. Bemer erinnert sich: "Es gab kaum Lösungsansätze, die alle Beteiligten befriedigten. Dabei zeichnete sich das Problem ab - immerhin wuchs die Verbreitung von Computer von Ende der 50er Jahre an stark. Zudem war die Entwicklung von Software teuer, und deshalb wollte man natürlich Code wiederverwenden." Also diskutierte Bemer mit den Kollegen und legte 1960 den ASCII-Entwurf vor. Das Konzept ist deshalb beachtlich, weil es bereits die Internationalisierung voraussah und ermöglichte. Bemer hatte unter anderem ein Zeichen definiert, das den Sprung zu ergänzenden Codetabellen anzeigt. So konnte ASCII von einem amerikanischen zu vielen internationalen Standards hatte ASCII eindeutig zu wenige davon für alle Zeichen der Welt. Auch für deutsche Umlaute war kein Platz. Die haben ihre Zuflucht in einem der vielen um ein achtes Bit erweiterten ASCII-Codesätze gefunden. Von den durch die Genfer "International Organization for Standardization" (ISO) genormten Zeichensätzen gibt es viele Varianten. Das große Ü steht im westeuropäischen Zeichensatz ISO 8859-1 - als Zeichen Nummer 220 oder binär ausgedrückt als 11011100. Es gibt die Zeichensätze für das kyrillische, hebräische und griechische Alphabet, und im Jahr 2001 wurde ein ThaiZeichensatz von der ISO angenommen. Der Weg dorthin war für den ASCII-Zeichensatz steinig. Es gab lange Zeit einen konkurrierenden Standard, der von Großrechnern benutzt wurde: EBCDIC. Doch das Betriebssystem Unix nutzte ASCII, ebenso die ersten Personal Computer Schon zu einer Zeit, als niemand an das bunte World-Wide Web dachte, war ASCII auch im Internet; nützlich. Denn um Infor mati en korrekt über das Netz, zu schicken,,müssen Internet-Protokolle allerlei allgemein verständliche Informationen über die Art und Bestimmung der beförderten Daten enthalten. Also etwa, wer der Empfänger einer E-Mail ist oder in welchem Zeichensatz der Autor eine Internetseite erstellt hat. Solche Dinge wurden schon früh in ASCII geschrieben. Der finnische Fachautor Jukka K Korpela, der eine der umfangreichen Geschichtsschreibungen zu ASCII zusammengetragen hat, sagt, der Wert von ASCII sei so versteckt wie diese internen Informationen nach dem Internet Protokoll.
Nach 40 Jahren lösen neue Konventionen ASCII langsam ab. Auf einer höheren Ebene gibt es Standards wie XML oder RDF Dabei geht es nicht nur darum, Zeichen einheitlich darzustellen, sondern dasselbe auch für die Struktur eines beliebigen Dokumententyps zu erreichen. Auch die bloße Kodierung von Zeichen übernimmt mehr und mehr ein ASCII-Nachfolger: Unicode. Diese Basis für neue Standards wie XML existiert seit 1991. Die Vereinheitlichungs-Methode ist eine andere als bei ASCII: Alle Schriftzeichen der Welt sollen in einem einzigen 16-Bit-Zeichensatz kodiert werden, nicht mehr in vielen einzelnen wie bei ASCII. Industriegrößen wie Apple, HP, IBM, Microsoft und viele andere mehr unterstützen diesen Standard, die aktuelle Version 3.1 enthält 94140 unterschiedliche Zeichen - auch aus Schriften wie Cherokee oder Katakana. So können auch innerhalb eines Dokuments verschiedenste Sprachen und Schriften gemischt werden, zudem unterstützt jede Unicode-kompatible Software . automatisch such seltene Sprachen, die es sonst mangels Marktmacht schwer hätten, überhaupt die Aufmerksamkeit großer Software-Konzerne zu bekommen. Uni! September fälligen Version 4.0 einen großen Teil >der heute noch gebräuchlichen Sprachen abdecken. Auch wenn der technische Ansatz ein anderer als bei ASCII ist, folgt Unicode in einem Punkt Bob Bemers ursprünglicher Idee: "Wir sind mit ASCII in eine ganz andere Richtung als Esperanto gegangen. Statt allen eine neue Sprache aufzuzwingen, gab ASCII allen Nutzern auf der Welt die Möglichkeit, ihre eigene Schrift weiter zu nutzen." Das ist der sprachphilosophische Grund für den Erfolg von ASCII. Es gibt aber auch den technologiephilosophischen: ASCII war ein offener Standard. Bob Bemer sieht darin den wesentlichen Grund für den Erfolg: "Es haben jene Dinge überlebt, die nie patentiert wurden und so ständig verbessert und zu neuen Projekten verwandelt werden konnten." Neben Technikern schätzen auch Künstler ASCII längst. Sie fasziniert die Offenheit und Schlichtheit der ursprünglich 128 Zeichen seit Jahren. Einer der etablierten Netzkünstler, die seit langem mit ASCII arbeiten, ist der New Yorker Andy C. Deck. Er beschreibt seine Begeisterung für nackte, formatlose Zeichen so: "In einer Medienumwelt, die so tief greifend mit Bildern zugestopft ist, hat der Künstler als Bilderproduzent ein Publikum vor sich, das bereits an einer gestörten Wahrnehmungsverteilung leidet." Hier scheint es ASCII ähnlich zu ergehen wie einst der lateinischen Sprache. Seit dem zweiten Jahrhundert berauschten sich Menschen an der Schönheit der Sprache Ciceros - doch abgesehen von einigen neuen Begriffen entwickelte sich Latein nicht mehr weiter. Aber lateinische Einflüsse leben in romanischen Sprachen fort. Genauso geht es auch ASCII: Der Standard verschwindet nicht - er ist ein Bestandteil von Unicode
- Content
- ASCII steht für American Standard Code for Information Interchange. Es ist ein international festgelegter Zeichensatz, der eingeführt wurde, um die Kommunikation zwischen Computersystemen verschiedener Hersteller zu erleichtern. Zur Kodierung werden sieben Bits verwendet, daher umfasst der Zeichensatz 2 hoch 7, also 128 Zeichen. Dazu gehören sämtliche Groß- und Kleinbuchstaben (außer Umlaute), die Ziffern 0 bis 9 sowie Sonder- und Steuerzeichen. Der erweiterte ASCII-Zeichensatz verwendet zur Kodierung acht Bits, kann daher 256 Zeichen darstellen - hier kommen auch die deutschen Umlaute unter. ASCII-Nachfolger Unicode arbeitet mit 16 Bits und 65 536 Zeichen - genug Raum auch für kyrillische oder chinesische Zeichen
-
Wille, J.: ¬Die Textgärtner : Wie bei dem Internet-Lexikon Wikipedia an der Wahrheit gearbeitet wird (2007)
0.01
0.007471598 = product of:
0.029886393 = sum of:
0.029886393 = weight(_text_:und in 1394) [ClassicSimilarity], result of:
0.029886393 = score(doc=1394,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25258717 = fieldWeight in 1394, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1394)
0.25 = coord(1/4)
- Content
- "Angela Merkel ist gesperrt. George Bush auch. Aber nur der Junior, nicht der Senior, der in den 90ern US-Präsident war. Der teilt das fragile Schicksal mit "Joseph Martin 'Joschka' Fischer". Auch an Joschka kann jeder ran, der will. Ein Leichtes, aus dem "deutschen Politiker" zum Beispiel einen "deutschen Taxifahrer" oder, was noch falscher wäre, "deutschen Staubsaugervertreter" zu machen. Fischer, früherer Außenminister, Politrentner und US-Gastprofessor, steht völlig ungeschützt im Kosmos des Online-Lexikons Wikipedia. Jeder kann bei ihm Geschichte fälschen. Oder schlicht Unsinn verzapfen. Bei Merkel oder Bush jr. hingegen heißt es: "Der Artikel wurde für nicht angemeldete und neue Benutzer gesperrt, da er regelmäßig und in größerem Umfang von Vandalismus betroffen war." Wikipedia wehrt sich gegen die spontane Spaßguerilla, die sich im Internet austobt. Immerhin das. Arne Klempert bleibt gelassen. "So etwas kommt in einem offenen System eben vor"; sagt der 35-Jährige und meint: kein Grund, am Grundprinzip des Internet-Projekts zu zweifeln, wonach jeder an dem globalen Wissenspool mitschreiben kann. Der hiesige Wikipedia-Repräsentant - Geschäftsführer und einziger Festangestellter des Vereins "Wikimedia Deutschland" - reagiert ruhig, wenn man ihm in seinem spartanisch eingerichteten Frankfurter Büro die Info-GAUs vorhält, die in jüngerer Zeit das Image der "freien" Enzyklopädie beschädigt haben. Er kennt sie natürlich, Manipulationen wie die, als Mitarbeiter des (Noch-)Siemens-Chefs Klaus Kleinfeld dessen Fehler beim Verkauf der Handy-Sparte tilgten und dafür seine Erfolge als Manager feierten. Oder jene, als Bundestagsangestellte kritische Passagen über ihren MdB strichen. Aber das macht Klempert nichtirre an der Sache. Er kann zeigen, wie schnell in fast allen Fällen mutwilliger Unsinn und Fehler von anderen Wiki-Autoren wieder getilgt wurden. "Irgendwann , sagt Klempert, "fliegt jeder auf."
10 000 Texter am Werk "Akl , wie Klempert sich als Wiki-pedia-Benutzer im Internet nennt, hat 2003 als Hobby-Enzyklopädist bei der deutschsprachigen Ausgabe begonnen. Gestartet war das Original des US-Gründers Jimmy Wales 2001. "Ich war begeistert von der Idee und von dem, was von Hobby-Autoren in so kurzer Zeit geleistet worden war." Der frischgebacken Lexikon-Autor, ein Medien-Soziologe mit wechselnden Jobs als Journalist, Öffentlichkeitsarbeiter, PR- und Internet-Fachmann, beschrieb "Das Wunder von Bern", den ,,Heilklima-tischen Kurort" sowie die "Burg Königstein". Grundlegendes über "Heidi Klum", das Phänomen "Seifenoper" und die "Spielbank Bad Homburg" folgten. Wobei Klempert Wert darauf legt, dass man von den Themen nicht voreilig auf persönliche Vorlieben schließt. "Es macht mir Spaß , mich in die Themen reinzuhängen, von denen ich vorher keine Ahnung hatte." Die Wikipedia-Idee, das "Wissen der Welt" zu sammeln, aufbereitet von Freiwilligen, zum freien und damit kostenlosen Gebrauch im Internet veröffentlicht, hat "AM" sofort fasziniert. In der englischsprachigen Wikipedia stehen mittlerweile mehr als 1,8 Millionen Artikel, in der deutschen sind 600 000 erreicht. Quantitativ kann sich die Online-Enzyklopädie mit traditionellen Lexika messen, die mehr als 2000 Euro kosten. Zum Vergleich: Die Londoner Encyclopedia Britannica hat 70 000 Artikel, der Brockhaus 300000 Stichwörter.
Die abfälligen Bemerkungen der Traditionskollegen, etwa von Brockhaus-Sprecher Klaus Holoch, der Wikipedia in Uni-Arbeiten als nicht zitierfähig abkanzelte, kommentiert Klempert mit verblüffenden Worten. "Der Brockhaus ist besser", sagt er trocken. "Zumindest da, wo er besser ist." Das Selbstbewusstsein kommt nicht nur von hohen Nutzerzahlen: Wikipedia liegt weltweit in den Top Ten der meistgenutzten Websites, in Deutschland sogar meist in den Top Five. Das Wissenschaftsmagazin Nature ließ im vergangenen Jahr 42 Fachartikel aus Wikipedia mit denen aus der ehrwürdigen Britannica vergleichen. Dabei schnitten beide Lexika praktisch gleich gut ab. Bei der Britannica fanden die Experten drei Fehler pro Artikel, bei Wikipedia, vier. Zweifel, ob die Wiki-Welt funktioniert, sind in der Wiki-Szene seither noch geringer geworden. Das mag daran liegen, dass trotz des offenen Prinzips - jeder kann mitschreiben und umschreibendie Zahl der Mitarbeiter halbwegs überschaubar ist. Bei der deutschen Ausgabe texten rund 10 000 regelmäßig mit, davon sind etwa ein Zehntel Hauptautoren, die pro Monat mindestens 1000 Bearbeitungen schaffen. Pro Tag werden etwa 1000 neue Artikel ins Netz gestellt. Die Hälfte davon bleibt drin, die andere fliegt, nach einer Art Abstimmung unter den Wiki-Nutzern, wegen Nichtigkeit wieder raus. Gut 250 "Administratoren" aus der Gruppe der Vielschreiber moderieren den Prozess und überwachen "ihre" Themenfelder.
Klempert, der Administrator war, bevor sein Fulltime-Job bei Wikimedia als Organisator, Fundraiser und PR-Mann ihm die Zeit dafür raubte, nennt sie "Textgärtner". Was diese Online-Grünpfleger so machen? Klempert zitiert Spiegel-Autor Manfred Dworschak, der dafür die liebevolle Beschreibung fand: "Sie stutzen Wildwuchs, bringen Gliederungen in Form und jäten vor dem Schlafengehen noch schnell ein paar unsinnige Apostrophe." Klingt harmlos, aber tatsächlich lastet auf den Administratoren große Verantwortung. Sie müssen nicht nur eingreifen, wenn "Vandalen" die Lexikoneinträge unbrauchbar machen. Wie voriges Jahr, als Schüler in der Mit-tagspause auf die Idee kamen, vom Schul-PC aus 50 Artikel mit dem Zusatz "Unser Lehrer ist doof" u versehen. Oder als ein Journalist testhalber 17 Fehler in Texte hineinschmuggelte, um zu verfolgen, wie lange es dauert, bis sie korrigiert würden. "Wenn so was passiert, wird die IP-Adresse des Computer-Netzwerks gesperrt, von dem aus das gemacht wurde`; sagt Klempert. Das klappt nicht so einfach bei Privat-Computern, die über einen Provider ins Netz gehen und bei jeder Einwahl eine neue IP-Adresse (IP wie "Internet Protocol") zugeteilt bekommen. "Vandalen, die zu Hause zuschlagen, verlieren aber meist schnell die Lust, wenn sie gleich wieder gesperrt werden." Ein anderer "Selbstreinigungsmodus" (Klempert) greift beim "Edit-War`; beim Krieg der Autoren. Wurde ein Text von WikiSchreibern mehrfach hin und her geändert, sperrt der Administrator die betreffende Seite erst einmal. Die Kontrahenten müssen sich auf einer Diskussionsseite einigen, die zu jedem Wikipedia-Eintrag existiert. Erst dann wird der Lexikon-Beitrag wieder geöffnet. In dem Link "Autoren/Versionen" oben auf jeder Wiki-Seite lässt sich die Entstehungsgeschichte jedes Artikels nachvollziehen. "Automatisch werden hier die IPAdressen gespeichert`, sagt Klempert. So sind auch die Eingriffe bei den Texten über die Bundestagsabgeordneten aufgeflogen.
-
New directions in human information behavior (2006)
0.01
0.007471598 = product of:
0.029886393 = sum of:
0.029886393 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
0.029886393 = score(doc=1577,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25258717 = fieldWeight in 1577, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1577)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt VÖB 59(2006) H.2, S.83-88 (O. Oberhauser): "Dieser neue Sammelband möchte Interessenten aus den Bereichen Informationswissenschaft, Bibliothekswesen sowie Sozial- und Evolutionspsychologie aktuelle Entwicklungen und neue theoretische Ansätze auf dem Gebiet des menschlichen Informationsverhaltens-human information behavio(u)r bzw. kurz HIB - vermitteln. Es geht dabei um die komplexen Informationsprozesse, die in das alltägliche Sozialverhalten und die Lebensabläufe menschlicher Individuen eingebettet sind. Die beiden Herausgeber sind in diesem Teilbereich der Informationswissenschaft auch durch eine Reihe anderer Publikationen einschlägig ausgewiesen: Amanda Spink (vormals Universität Pittsburgh), die sich kürzlich selbst in aller Bescheidenheit als "world-class ICT researcher" beschrieb,' ist Professorin an der Technischen Universität Queensland (Australien); Charles Cole ist Research Associate (wissenschaftlicher Projektmitarbeiter) an der McGill University in Montreal und selbständiger Berater für Informationsdesign. Gemeinsam haben Spink und Cole zuletzt, ebenfalls bei Springer, eine weitere Aufsatzsammlung - New Directions in Cognitive Information Retrieval (2005) - herausgegeben. Das Buch versammelt zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich allerdings bei den Sektionen 1 und 5 (= Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Während erstere eigentlich nur eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden, darstellt, kann letztere als eigenständiger Beitrag gelten, der versucht, die in diesem Band angesprochenen Aspekte in einem vorläufigen HIB-Modell zu integrieren.
... New Directions in Human Information Behavior ist ein Sammelband, der eindrucksvoll dokumentiert, dass sich die Forschung zu den Themen Informationssuche bzw. Informationsverhalten - ein in unserem Sprachraum freilich wenig bekannter und weitgehend unrezipierter Teilbereich der Informationswissenschaft - gegenwärtig stark im Umbruch befindet. Der Trend von den bisherigen, eher an Paradigmen wie Dokument, fachliche Informationssuche, Bibliothek, wissenschaftliche Informationsnutzung orientierten Ansätzen hin zur Betrachtung alltäglicher Situationen und weiterer Bevölkerungsschichten sowie die Einbeziehung von neuen bzw. aus anderen sozialwissenschaftlichen Bereichen stammenden theoretischen Überlegungen ist nicht zu übersehen. Mitunter mutet dies wie eine (Wieder- bzw. Neu-)Entdeckung der Kommunikationswissenschaft durch die Informationswissenschaft an - oder auch umgekehrt, zumal einige der im vorliegenden Band Schreibenden aus communication departments kommen. Wie auch immer, wer sich für den gegenwärtigen Stand der Entwicklung auf dem HIB-Sektor interessiert, kommt um dieses Buch nicht herum. Allerdings taucht darin der Begriff framework - erfahrungsgemäss oft mit weniger handfesten Inhalten korreliert und mir daher stets ein wenig suspekt - für meinen Geschmack etwas zu häufig auf. HIB ist leider nicht das einzige Akronym, das hier eingeführt wird. Bisher ging es im gegenständlichen Kontext ja bloss um IS (information seeking) - ein neben IR (information retrieval) auch schon bekanntes und eingeführtes Kurzwort.
Angesichts des skizzierten Umbruchs kann HIB wohl akzeptiert werden, doch ist es - wie dieses Buch zu suggerieren trachtet - wirklich notwendig, daneben auch noch IBEC (information behaviour in everyday contexts), ELIS (everyday life information seeking), HIOB (human information organizing behaviour), CIB (collaborative information behaviour), CIS&R (collaborative information seeking & retrieval) und HICB (human information co-ordinating behaviour) zu verwenden? Wohl kaum, doch wer wird bzw. kann ein solches Spamming verhindern? Würde der akademische Ernst nicht jede Schadenfreude verbieten, so könnte man konstatieren, dass diese Akronymenflut zu unnötigen Druckfehlern führt (z.B. p.172, wo sogar in einer Zwischenüberschrift "HIBO" statt "HIOB" zu lesen ist). In herausgeberischer Hinsicht ist weiter zu bemängeln, dass die meist ansehnlichen und sich naheliegenderweise zum Teil überschneidenden Literaturverzeichnisse der einzelnen Beiträge besser in einer Gesamtbibliographie mit konsistentem Zitierstil zu vereinen gewesen wären, zumal sie in der vorliegenden Form auch etwas inkonsistent und nicht fehlerfrei sind. In diese Richtung zu investieren wäre sinnvoller gewesen als in die Erstellung eines geradezu erbärmlichen Sachregisters (dessen Verriss den Rahmen dieser Besprechung sprengen würde), welches auf Herausgeber bzw. Lektorat - falls es letzteres überhaupt noch gibt - ein eher fahles Licht wirft. Abgesehen davon fielen mir nur einige fehlerhafte bzw. unvollständige Angaben der Institutszugehörigkeiten am Beginn der einzelnen Kapitel (z.B. p.113, p.203) sowie die nicht ganz homogen gestalteten Kurzbiographien der Verfasser/innen am Ende des Buches auf. Der Band selbst ist von gewohnt solider Springer-Machart und zielt schon aufgrund seines hohen Preis wohl nur auf institutionelle Käufer ab."
-
Schulze-Pillot, R.: Koalition und Mathematik (2005)
0.01
0.007471598 = product of:
0.029886393 = sum of:
0.029886393 = weight(_text_:und in 1893) [ClassicSimilarity], result of:
0.029886393 = score(doc=1893,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25258717 = fieldWeight in 1893, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1893)
0.25 = coord(1/4)
- Content
- "Im Umfeld von Bundestagswahl und Koalitionsverhandlungen gab es viel Mathematik in den Zeitungen, vor allem die Quadratur des Kreises war in aller Munde. Aber der Reihe nach: Am 25. September wies Gregor Gysi den Bundeskanzler zurecht (FAZ.net): Schröders Anspruch, Kanzler zu bleiben, nannte Gysi "egomanisch". "Wenn sich Schröder auf eine große Koalition einläßt, muß er die Mathematik beherrschen." Vielleicht hat Schröder ja letzten Endes deshalb auf seine Mitwirkung beim Projekt Große Koalition verzichtet. Bevor es nun aber mit den Koalitionsverhandlungen richtig losgehen konnte, musste erst noch in Dresden gewählt werden, und da kam auch wieder die Mathematik (oder etwa nur das Rechnen?) ins Spiel. Volkes Stimme äußerte sich dazu im Blog von lautgeben.de: Warum der Wahlkreis 160 noch richtig spannend wird, konnte man schon vor der Wahl bei Wahlrecht.de nachlesen. Nachvollziehen können die aktuellen Rechenbeispiele wohl nur Mathematiker oder Menschen mit vergleichbar abstrusen Neigungen: Via Zaister im Chat. Mmh, Zaister ist Mathematiker, oder? Also nicht, dass ich nun wieder missverstanden werde, selbstverständlich sind Mathematiker liebenswerte Menschen ... Die mutige Verteidigung unserer Berufsgruppe gegen den Vorwurf abstruser Neigungen riss allerdings leider alte Gräben wieder auf: nordlicht says: September 22nd, 2005 at 13:53 Danke für die Klarstellung mit den Mathematikern als liebenswerten Menschen (die abstrusen Neigungen nachgehen) :-) Das was da oben steht, hat allerdings mit Mathematik nicht so wahnsinnig viel zu tun. Das ist mehr Rechnen. Bestenfalls angewandte (igitt) Mathematik. Für richtige Mathematik braucht man keine Zahlen mehr, höchstens für die Indices. ein Mathematiker.
Nach diesem Vorgeplänkel kommen wir aber nun zur höheren Mathematik. Eine optimistische Note gab es von Fritz Kuhn (die Grünen) in einem Interview mit der TAZ: TAZ: Bedeutet Ihre "permanente Sondierung" nicht die Quadratur des Kreises? Wie wollen Sie Linkspartei-Wähler überzeugen und gleichzeitig Bündnisse mit der Union ausloten? Fritz Kuhn: Die Quadratur des Kreises ist doch ein attraktives Projekt. Im Ernst: Natürlich ist das nicht einfach, aber zum Beispiel unsere Strategie "Weg vom Öl" kann Leute auf allen Seiten überzeugen. Falls Herr Kuhn in einer späteren Regierung einmal Forschungsminister werden sollte, wissen wir jetzt jedenfalls, welche Projekte er für attraktiv hält. Dass die Sache nicht so einfach ist, wusste Roland Koch (FAZ.net, 3. 11.05): Hessens Ministerpräsident Roland Koch (CDU) sprach im Anschluß von anstrengenden und schwierigen Unterredungen. Sie seien aber konstruktiv gewesen. "Ich habe ihnen seit vielen Tagen gesagt, daß wir eine schwierige Diskussion führen, da es um Mathematik geht, wird sie auch nicht einfach." Dass mit der Mathematik nicht zu spaßen ist, konnte man auch im Berliner Tagesspiegel (13.11.2005) nachlesen: Aber natürlich wissen beide, dass auch noch so schöne Bilder nicht reichen werden zur Rechtfertigung, wenn die Leute demnächst in ihr Portemonnaie schauen. Nur, was hilfts? "Die Mathematik kann von niemandem auf dieser Erde außer Kraft gesetzt werden", sagt Merkel. Müntefering nickt. Die Frankfurter Rundschau hielt dagegen diese ganze Mathematik eher für Kinderkram (FR, 10. 11. 2005): Der Quadrateur Der designierte Vizekanzler Müntefering hatte beim SPD-Aufgebot fürs Kabinett viele Anforderungen zu bedenken VON KNUT PRIES (BERLIN) Die Quadratur des Kreises ist dagegen Kinderkram was Franz Müntefering bei der Mannschaftsaufstellung für die Koalition mit der Union alles berücksichtigen musste. war bruchlos kaum zusammenzufügen.
Derart vollmundige Ankündigungen waren vorab (ganz ohne Bezug zur Politik) schon vom Postchef Zumwinkel verurteilt worden (Financial Times Deutschland, 24.9.05): Das Geschäftsmodell der beiden Großverlage Springer und Holtzbrinck, die demnächst in die Briefverteilung einsteigen wollen, beurteilte Zumwinkel eher skeptisch. Zeitungen zusammen mit Briefen auszuliefern, sei die Quadratur des Kreises. Er habe schon einige vollmundige Ankündigungen gehört. Kinderkram oder nicht - Angela Merkel findet, dass es schwierigere Probleme gibt (siehe obigen Ausriss aus dem Berliner Tagesspiegel vorn 30.10.05). Der diensthabende Algebraiker merkt an, dass die Transzendenz der Zahl (3. Wurzel 4/3*Pi) ** (-1) die man für diese Aufgabe mit Zirkel und Lineal konstruieren müsste, natürlich zu der Transzendenz von Pi äquivalent ist, auch wenn es interessant und mysteriös wirkt, die Zahl 3. Wurzel 2 aus dem Delischen Problem der Würfelverdoppelung mit der Kreiszahl Pi oder gar deren dritter Wurzel zu kombinieren. Das Schlusswort zum Thema Quadratur aber gehört der Welt am Sonntag, die schon am 5.9.2004 zur Schulpolitik des Landes Bremen alles so klar machte, dass wir uns ausnahmsweise (bis auf die elementare Rechnung 1882 + 124 =?) alle Besserwisserei verkneifen müssen. Nur schade, dass der Artikel offenbar wenig gelesen wurde. Hamburgs Schulexperten können aber noch aus einem anderen Grund aufatmen: Mit Robert Heinemann, dem schulpolitischen Sprecher der CDUBürgerschaftsfraktion, verfügt die Politikerschaft der Hansestadt über einen wahrhaften Mathematikexperten und die Union über einen Mann, der, um eine legendäre Wendung des Ex-SPD-Generalsekretärs Olaf Scholz abzuwandeln, die Lufthoheit der Christdemokraten über den Mathematikunterricht an Hamburgs Schulen auf Jahre, wenn nicht auf Jahrzehnte hinaus sichern wird.
Was ist passiert? Heinemann hatte am vergangenen Dienstag die Öffentlichkeit per Presseerklärung wissen lassen, dass der Schulbehörde mit dem Zeitplan für die Schulentwicklungsplanung "die von der Bürgerschaft geforderte Quadratur des Kreises gelungen" sei. Lehrer und Eltern würden nun "so frühzeitig und umfassend wie nie zuvor eingebunden" und wüssten zugleich rechtzeitig vor der Anmelderunde Anfang des kommenden Jahres, was mit den jeweiligen Schulstandorten geschehen solle. Nun könnte man das Ganze als politische Geisterfahrt eines Parlamentsneulings abtun. Könnte man, hätte Heinemann nicht - quasi im Vorbeigehen - ein mathematisches Problem gestreift, an dem sich Wissenschaftler, glaubt man Wikipedia, der freien Enzyklopädie im Internet, über Jahrhunderte die Zähne ausgebissen haben. 1882 aber, und das ist nun auch schon 124 Jahre her, konnte Ferdinand von Lindemann beweisen, dass es unmöglich ist, nur mit Lineal und Zirkel ein Quadrat mit dem Flächeninhalt eines gegebenen Kreises zu konstruieren. Auf Heinemanns Fantasiewelt bezogen, bedeutet das: Die Bürgerschaft hat etwas gefordert, was nicht machbar ist, und die Schulbehörde unterbreitete daraufhin einen Verfahrensvorschlag, der zwar auch nicht machbar ist, sich aber gut vermarkten lässt. Allerdings hat Lindemanns Beweis viele "Freigeister" nicht daran gehindert, sich immer wieder der Quadratur des Kreises anzunehmen. Die Nutzlosigkeit dieser Arbeit, heißt es bei Wikipedia, habe deshalb die Wendung als Metapher bekannt gemacht. So wird diese als ein Synonym für ein Unterfangen genutzt, das von vornherein zum Scheitern verurteilt ist. Angesichts dieser Erläuterung bekommt Heinemanns Presseerklärung eine ganz andere Bedeutung: Sollte er den Vorschlag der Behörde etwa für ein zum Scheitern verurteiltes Unterfangen halten? Das wäre dann sicher eine Schlagzeile wert Epilog (www. tagesschau. de vom 23.11. 2005) Kleine Feier ganz privat Unmittelbar nach ihrer Wahl zog sich Merkel mit ihren Eltern und ihrem Bruder sowie ihrem Mathematiklehrer zu einer kleinen Feier im Nebenraum des Bundestages zurück. Ihr Mann, Joachim Sauer, zog es offenbar vor, die Wahl vor dem Fernseher zu verfolgen. Er gilt als öffentlichkeitsscheu und blieb der Ehrentribüne fern."
-
Flohr, M.: Daten für die Ewigkeit (2005)
0.01
0.0073920637 = product of:
0.029568255 = sum of:
0.029568255 = weight(_text_:und in 5029) [ClassicSimilarity], result of:
0.029568255 = score(doc=5029,freq=52.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2498984 = fieldWeight in 5029, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=5029)
0.25 = coord(1/4)
- Abstract
- Google scannt die altehrwürdige Bibliothek in Oxford. Doch wie lange halten die digitalisierten Werke? Sind unsere Daten auf CDs, Platten und Bändern in einigen Jahren überhaupt noch lesbar?
- Content
- "Was haben Ihre Urlaubsfotos mit dem kulturellen Erbe der Menschheit zu tun? An beiden nagt unerbittlich der Zahn der Zeit. Auf den Bildern aus Irland fehlt nach 20 Jahren ausgerechnet das so charakteristische Grün, die winterliche Gebirgslandschaft ist in penetrantes Rosarot gehüllt und das letzte Weihnachtsfest verblasst schneller als jede Erinnerung. In unseren Bibliotheken und Archiven bedrohen derweil Schimmel, Tintenfraß und Säure unersetzliches Schriftgut. Elektronische Medien können zwar Backups speichern, schaffen aber auch neue Probleme: Keiner weiß, wie lange die Daten beispielsweise auf einer CD wirklich halten. Der private Anwender kann hier von Profis lernen, für die Langzeit-Archivierung ein Dauerbrenner ist. Jedes Jahr entstehen weltweit inzwischen mehr als eine Milliarde Gigabyte an Informationen, von denen gerade einmal 0,003 Prozent gedruckt werden. Der Löwenanteil der neu generierten Informationen besteht aus Bildern, Animationen, Filmen, Ton, Grafiken und anderen Multimedia-Daten. Ein Teil davon ist wichtig - auch über den Tag hinaus. "Elektronische Medien sind nicht archivierbar", meinte Clifford Stoll, amerikanischer Astronom und Spezialist für Datenschutz und Computersicherheit, 1996 in seinem Buch "Die Wüste Internet. Geisterfahrten auf der Datenautobahn". Historiker sind nicht die einzigen, denen diese Zukunftsvision nicht gefällt. "Wir dürfen nicht zulassen, dass wir kollektiv vergessen", mahnt Dr. Elisabeth Niggemann, Generaldirektorin der Deutschen Bibliothek. Unserer Gesellschaft drohe der digitale Alzheimer, wenn nicht schleunigst etwas dagegen unternommen werde. Neben der Aufnahme elektronischer Publikationen beginnen Bibliotheken auch damit, Bücher einzuscannen und so einen elektronischen Fundus an älteren Werken aufzubauen. "Retro-Digitalisierung" heißt das Zauberwort, mit dem kostbare Exemplare geschont und zugleich öffentlich zugänglich gemacht werden sollen. Deutschlands erste Digitalisierungscenter in Göttingen und München haben unter anderem eine Gutenberg-Bibel gescannt und die älteste bekannte Handschrift des Talmud digitalisiert.
Andere Interessen verfolgen US-Firmen wie Google und Amazon. Mit groß angelegten Digitalisierungsprojekten haben sie den Massenmarkt im Visier, um ihre Angebote um digitalisierte Werke zu ergänzen. Am ambitioniertesten ist "Google print": Die Suchmaschine wird künftig auch immer mehr Treffer in Büchern landen und einzelne Seiten oder ganze Bücher online zur Verfügung stellen. Google hat bereits mit dem Scannen der Bestände renommierter Universitätsbibliotheken begonnen. In Stanford und Michigan werden alle 15 Millionen Bände digitalisiert, Harvard und die New York Public Library steuern einen Teil ihres Fundus bei. Von diesem Herbst an ist die Bodleian Library in Oxford als erstes Google-Projekt in Europa dran. Verzögert wird das Projekt durch bislang noch nicht ausgeräumte Copyright-Einwände von Verlagen und Autoren. Roboter scannen ganze Bibliotheken Zum Teil lässt Google noch von Hand scannen, der Großteil der Arbeit wird aber Kopier-Robotern überlassen, die selbstständig ganze Bücher durchblättern und kopieren. Bis 2015 dürften die fünf Bibliotheken erfasst sein. Die Daten müssen aber nicht nur sicher gespeichert, sondern auch so aufbereitet werden, dass sie bei Bedarf tatsächlich gefunden werden. Ohne die so genannten Metadaten, die Autor, Verlag, Erscheinungsdatum, Stichworte und andere Informationen enthalten, wäre dies unmöglich. Ein spektakuläres Beispiel dafür, wie schnell der digitale Alzheimer eintreten kann, liefert die NASA: Wenn die Amerikaner 2018 wieder vier Astronauten zum Mond schicken, ist die erste Mondlandung ein hal bes Jahrhundert zuvor einer von vielen weißen Flecken in der Geschichte der Raumfahrt. Unfreiwillig hat die NASA gezeigt, wie viele Möglichkeiten es gibt, digitale Daten ins Nirwana zu schießen. Mitte der 1990er Jahre wurde bemerkt, dass 1,2 Millionen Magnetbänder mit Daten aus 30 Jahren Raumfahrt nicht mehr benutzbar sind - teilweise wegen mangelnder Zuordnung zu den jeweiligen Missionen. Bis zu 20 Prozent der Informationen, die 1976 während der Viking-Mission zum Mars gesammelt wurden, sind weg, weil Speichermedien unlesbar geworden sind. 1979 wurden die von der Raumsonde "Pioneer" vom Saturn übertragenen Daten auf Magnetbänder archiviert. Obwohl die Daten auf vier verschiedenen Datenträgern gespeichert waren, waren sie zwei Jahrzehnte später nicht mehr lesbar - die NASA hatte für keines der Medien mehr die passenden Lesegeräte.
Jetzt haben die NASA und Google eine Zusammenarbeit vereinbart, in deren Rahmen Google der Weltraumbehörde beim Verwalten großer Datenmengen helfen soll. Google errichtet dazu einen neuen Campus auf dem Gelände des NASA-Forschungszentrums in Silicon Valley, der doppelt so groß ist wie Googles Hauptquartier. Oft sind es nicht ausrangierte Geräte, sondern alte Software, aufgrund derer Daten nicht mehr entziffert werden können. Selbst wenn alle Bits auf dem Datenträger noch lesbar sind, erschließt sich der Inhalt nur mit dem passenden Programm - Nullen und Einsen sind da wie Hieroglyphen. Stephen Abrams ist Direktor des Digital Library Programms an der Harvard Universität. Dass er die Journalistenfrage, wie viele verschiedene Datenformate es überhaupt gebe, nicht einmal annäherungsweise beantworten konnte, hat ihn sichtlich gewurmt. In einem Vortrag am folgenden Tag lieferte er Zahlen aus dem Internet: Eine Seite, die sich rühmt, "jedes Format in der Welt" zu haben, listet 3.189 Extentions auf. "Glauben Sie aber nicht, dass das schon alle sind", warnt Stephen Abrams. Neben exotischen Formaten kommen noch verschiedene Versionen desselben Formats hinzu. Allein das PDF-Format existiert in 60 verschiedenen Varianten, die mitunter Inkompatibilitäten zeigen. "Die Industrie ist interessiert daran, dass alte Daten mit neuen Programmversionen nicht mehr lesbar sind", kommentiert Elmar Mittler, Leiter der Göttinger Bibliothek, das Durcheinander, mit dem das Bemühen der Archivare konterkariert werde. In Harvards Archiv liegen 97 Prozent aller elektronischen Dokumente in neun Formaten vor: AIFF, ASCII, GIF, HTML, JPEG, PDF, TIFF, WAVE und XML. 90 weitere Formate bilden die restlichen 3 Prozent. Um ältere Daten zu lesen, werden verschiedene Strategien eingesetzt. Die einfachsten sind Migration, also die Daten in moderne Formate zu überführen, und Emulation, bei der ältere Rechner auf neuen Maschinen simuliert werden. Aufwendiger ist es, ein "Museum" mit Lesegeräten für veraltete Lochkarten, Disketten und Bänder zu unterhalten. Um das Risiko von Datenverlust zu verkleinern, speichert man auf verschiedenen Medien - oft auf Magnetbändern und zusätzlich auf CDs. Als großes Schwarzes Loch entpuppt sich immer wieder das Internet. So verweist die Deutsche Bibliothek auf ihrer Homepage zu Ergebnissen des Projekts "Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Resourcen" auf die entsprechende Website - doch der Link führt ins Leere: "Pagina niet gevonden / Page not found" antwortet die Königliche Bibliothek der Niederlande auf den Mausklick.
In der Zukunft könnten Geld und Wissen fehlen "Error 404", die Fehlermeldung für nicht gefundene Seiten, kennt John Kunze nur zu gut. Sein Job an der California Digital Library ist die Archivierung von Webseiten. "Einfacher Text ist das einzige Format, das mit heutigen Computern noch genauso lesbar ist wie es vor 30 Jahren war", stellt Kunze fest. Wahrscheinlich werde es auch in 30 Jahren noch lesbar sein, vielleicht sogar als einziges Format aus der heutigen Zeit. In Kalifornien speichert man daher die Originalseiten, zusätzlich wird aber auch eine Sicherung in ASCII-Format angelegt. Sollten die multimedialen Inhalte eines Tages nicht mehr darstellbar sein, bliebe wenigstens der Text erhalten. Eine weitere Möglichkeit ist, gleich ein Rasterbild der Seiten zu erzeugen. Bessere Darstellungs-Tools als heute werden für die aktuellen Formate nie existieren. Für diese "Datenaustrock-nung". gibt es in Zukunft möglicherweise weder das Geld noch das Wissen, um es nachzuholen. Auf Papier gedruckte Dokumente sind deshalb so dauerhaft, weil sie keine komplizierten Geräte benötigen: Licht reicht zur Betrachtung aus. In Zeiten der digitalen Fotografie hat die CD den Negativstreifen ersetzt. Nach wie vor sind Papierbilder jedoch sehr beliebt. Spätestens wenn die Bilder verblassen oder Abzüge sich verfärben, greifen Fotografen zum Speichermedium, um Ersatz zu drucken. Mitunter gibt es dann ein böses Erwachen: Wenn Papierbilder von der Zeit gezeichnet sind, könnte auch die CD bereits Schaden genommen haben. Sie kann zwar nach Herstellerangaben bis zu 100 Jahre halten, trägt aber möglicherweise schon nach dem Brennen den Keim für eine viel schnellere Zerstörung. Nicht ohne Grund kopieren professionelle Archivare ihre CDs alle fünf Jahre um."
-
Broughton, V.: Essential thesaurus construction (2006)
0.01
0.0073920637 = product of:
0.029568255 = sum of:
0.029568255 = weight(_text_:und in 3924) [ClassicSimilarity], result of:
0.029568255 = score(doc=3924,freq=52.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2498984 = fieldWeight in 3924, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3924)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005)
0.01
0.0073920637 = product of:
0.029568255 = sum of:
0.029568255 = weight(_text_:und in 622) [ClassicSimilarity], result of:
0.029568255 = score(doc=622,freq=52.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2498984 = fieldWeight in 622, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=622)
0.25 = coord(1/4)
- Abstract
- Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
- Content
- Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
- Footnote
- Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
-
Suck, M.: Ranking-Betrug bei Google & Co. : Suchmaschinen (2003)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 2337) [ClassicSimilarity], result of:
0.02899406 = score(doc=2337,freq=50.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 2337, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2337)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen werden zunehmend unbrauchbar: Werbeagenturen manipulieren gezielt Suchergebnisse. Wer nicht zahlt, wird nicht mehr gefunden - und der Nutzer erhält Fake-Sites statt Fakten
- Content
- "Google kam, sah und siegte: Keine neue Suchmaschine hat es in so kurzer Zeit geschafft, das Internet zu erobern. Mehr als die Hälfte aller weltweit gestellten Suchanfragen werden mittlerweile über die clevere Software der Kalifornier abgewickelt; mehr als 150 Millionen Surfer durchforsten täglich die gigantische Datenbank, die auf 10.000 PCs insgesamt drei Milliarden Webseiten indiziert hat. Dieser Erfolg kommt nicht von ungefähr: Google war die erste Suchmaschine, die Webseiten nach Wichtigkeit sortieren konnte - unentbehrlich, um den Überblick im Daten-Dschungel zu behalten. Doch Googles große Stärke wird nun immer mehr zum großen Manko. Der Grund: Professionelle Web-Vermarkter nutzen das Ranking-System von Google, um ihre Kundschaft in den Ergebnislisten gezielt nach oben zu drücken. Hinter harmlos klingendem Marketing-Neusprech wie "Site Promotion" oder "Suchmaschinen-Optimierung" steckt nichts anderes als der Versuch, der Suchmaschine wichtige Internet-Seiten vorzugaukeln - auch wenn diese Seiten das vielleicht gar nicht sind. Die Manipulationsversuche treffen nicht nur den Marktführer. Nachdem auch die Konkurrenz von Altavista, Fireball und AllTheWeb ihre Indizierungstechniken denen von Google angepasst hat (siehe Kasten auf S.226), leidet die Branche nun auf breiter Front unter dem Werbedauerfeuer der "Optimierer". Besonders deutlich wird der erfolgreiche Druck der Vermarkter bei allen Suchanfragen, die mit Produkten oder Preisinformationen zu tun haben. Dem liegt etwa die Erkenntnis der amerikanischen Marktforscher von Comescore zugrunde, dass nur 5 Prozent aller Internet-Nutzer direkt auf einer Webseite nach Produkten fahnden, 25 Prozent hingegen eine Suchmaschine bemühen. Schlimmer noch: Bei den Suchergebnissen klicken laut einer Untersuchung der Agentur Iprospect höchstens 23 Prozent der Nutzer auf die zweite Ergebnisseite, und auf den dritten Teil der Liste verirren sich gerade mal gut 10 Prozent. Ein Top-Ranking ist also überlebenswichtig für OnlineShops. So kommt es, dass harmlose Suchbegriffe wie "BMW kaufen" oder "günstige Prozessoren" in der Top-10-Trefferliste bei Google gleich sieben Webseiten zu Tage fördern, die sich dank "Site Promotion" nach vorn geschmuggelt haben. Bei AltaVista ist gar die komplette erste Ergebnisseite das Werk der Optimierer. Das Perfide daran: Die Werbung ist als solche zunächst gar nicht zu erkennen. So stehen in der Ergebnisliste von Google zum Suchbegriff "BMW kaufen" lediglich harmlos klingende Adressen wie "www.fixe-flitzer.de", "www.traumhafte-autos.de" oder gar mutige Wortschöpfungen wie "www.kolbenholben.de".
Wer jedoch einen dieser Links aufruft, wird per JavaScript blitzschnell auf ein "Zink Portal" der Firma n-factory (www.nfactory.com) geführt. Dieses Portal gibt es in fünf verschiedenen Ausführungen, aber immer mit dem gleichen Inhalt: Wer hier landet, kommt mit dem nächsten Klick zu Werbepartnern wie Autoscout24 oder Radblenden.de. Die Top-Platzierungen im Ranking der Suchmaschinen erreichen Firmen wie n-factory durch so genannte "Doorway Pages". Diese "Brückenseiten" sind der letzte Schrei bei den web-Vermarktern. Der Trick: Hunderte von verschiedenen Domains mit Tausenden von Webseiten werden mit identischem oder nur leicht variierendem Inhalt erstellt. Gleichzeitig verweisen diese Seiten konsequent aufeinander. Die Software-Spider der Suchmaschinen, die durchs Web wuseln und Seiten indizieren, achten ihrerseits genau auf den Grad der Verlinkung einer Webseite, um ihre Bedeutung festzustellen - schon rutscht die "Doorway Page" im Ranking nach oben. Darüber hinaus können die Werber noch weitere Waffen im Kampf um Bestplatzierungen ins Feld führen. Die älteste Form der Ranking-Manipulation ist das "Spamdexing". Hierbei werden Schlüsselbegriffe im Quelltext einer HTML-Seite gleich hundertfach wiederholt oder gar falsche Keyword-Listen eingebaut, die nichts mit dem Inhalt der Webseite zu tun haben. Beliebter, weil von den Suchmaschinen schwerer zu durchschauen, sind die "Cloaking Sites". Diese unsichtbaren (engl. "cloaked" = verhüllt) Webseiten werden nur für die Suchroboter von Google und Co. entworfen. Erkennt der Server einer solchen Cloaking Site die Such-Software anhand der IP-Adresse oder ihrer Identifikation, wird dem Spider eine gefälschte Webseite untergejubelt, die andere Surfer nie zu Gesicht bekommen. Fast jedenfalls: Die dunkle Seite des Webs erscheint zumindest in jenen Textauszügen, die die Suchmaschinen in ihren Ergebnislisten auswerfen - und meist wimmelt es dann nur so von Schlüsselwörtern ohne Zusammenhang. Im zuckersüßen Werberdeutsch werden derlei Maßnahmen natürlich ganz anders benannt. Optimierungs-Verfahren wie die berüchtigten Doorway Pages preist beispielsweise die Ebersberger Firma Imedia (www.imedia-online.de) als Allzweckwaffe, denn schließlich könnten diese Seiten "von Suchmaschinen nicht abgelehnt werden". Schön, dass Imedia auch gleich noch einen Rundumservice bietet und für Kunden Webseiten für "die Zielgruppe Suchmaschinen" baut. Von Ranking-Manipulation will Geschäftsführer Dominique Madelaine freilich nichts wissen, denn die Seiten von Imedia, so Madelaine, "sollen kein Spam sein"' und der Einsatz von Brückenseiten bleibe ohnehin "sehr begrenzt".
Das mag für Imedia gelten, nicht aber unbedingt für die Partner der Firma. So gehören zum Portfolio der Ebersberger die beiden Services Webmasterplan (http://de.webmasterplan.com) und Affili.Net (www.affili.net). Webmaster plan erstellt die optimierten Webseiten, Affilinet besorgt die "Partnerprogramme" für eben diese Seiten. Interessierte Web-Administratoren können so Werbelinks und Banner für Imedia-Kunden auf ihren Seiten platzieren und mit den Klicks Geld verdienen. Interessanterweise befinden sich unter diesen Partnern auch die zahlreichen "Link Portale" von n-factory, die mit Seiten über "flinke Flitzer", "Kolbenholben" oder "Autotuningtrixx" hitverdächtige Rankings bei den Suchmaschinen erzeugen. Trotz des "Erfolges" mag n-factory-Geschäftsführer Stefan Englert aber nicht so recht über seine Brückenseiten reden. Schon die Erwähnung des Firmennamens in CHIP stieß bei Englert auf wenig Gegenliebe - und das bei einem Unternehmen, das laut Eigenwerbung lediglich "zielgruppengerechtes NetzMarketing" betreibt. Andere Ranking-Profis sind da auskunftsfreudiger. Dazu gehören die Firma Allactive Medien GmbH (www.allactive.de) und ihr Partner "Traffictime" aus Kevelaer. Deren Link-Portale erreichen bei Google Suchbegriffen für "günstige Prozessoren" in der Ergebnisliste die beachtlichen Plätze zwei, fünf und sieben und verlinken allesamt direkt auf die eBay-Homepage. Allactive-Chef Jens Menzenbach sieht darin auch gar nichts Verwerfliches, denn schließlich sei "das, was der User sucht, auch das, was er bei eBay findet". Ergo: Da man bei eBay alles findet, darf man auch jeden Suchbegriff auf eBay verlinken. Peinlich ist Allactive und Traffictime jedoch, dass selbst uralte Doorway-Pages gleich mehrfach bei den Suchmaschinen auftauchen - nach Hinweisen von CHIP nahm die Firma prompt die Übeltäter aus dem Index. Ohnehin, beteuert Menzenbach, gebe es für den Einsatz von DoorwayPages eine Grenze - eine finanzielle, keine moralische: "Der Traffic wird irgendwann zu teuer. 20.000 Seiten würden einem einfach das Genick brechen." Derart viele Seiten mögen tatsächlich unrealistisch sein, doch bis zu 2.000 Link-Portale sind durchaus nichts Ungewöhnliches. Und der Aufwand lohnt sich: Wird der arglose Surfer erfolgreich auf die Webseite des Werbekunden verfrachtet, wird dies laut Branchen-Informationen mit 10 bis 20 Cent Provision vergütet. Füllt der gutwillige Nutzer auch noch ein Formular mit seinen persönlichen Daten aus, werden für diesen "Lead" angeblich bis zu 4 Euro ausbezahlt. Und ein Verkauf, neudeutsch "Sale" genannt, schlägt gar mit ein bis fünf Prozent der Verkaufssumme zu Buche.
Der Schönheitsfehler: Von dem vielen Geld hat der Suchmaschinen-Betreiber gar nichts, schlimmer noch: Das Renommee leidet. Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet". Kein Wunder, dass Google & Co. die Optimierer ein Dorn im Auge sind. Das amerikanische Mutterhaus des Branchenprimus sah sich deshalb bereits im April letzten Jahres veranlasst, zu rigorosen Maßnahmen zu greifen und sperrte kurzerhand die IP-Adressen des Breitbrand-Providers Comcast, auf dem viele SpamSeiten lagen. Damit wurden aber auch all jene Surfer ausgesperrt, die Comcast einfach nur als Zugangs-Provider nutzten. IP-Adressen will Google deshalb fortan nicht mehr sperren. Man arbeite aber, so Googles PR-Manager Nathan Taylor, mit einem Team von Ingenieuren daran, die Such-Spider gezielt auf die Erkennung von Spam-Seiten "abzurichten". Ein Problem sieht Taylor ohnehin nicht in den neuen Tricks der Werber, denn Google sei "viel widerstandsfähiger" gegen Manipulationsversuche als die Konkurrenz. Eine gewisse Nervosität scheint den Marktführer dennoch befallen zuhaben: Der deutsche Index von Google soll jetzt "deutlich verbessert werden", so Taylor. Ähnliche Absichtserklärungen gibt es auch von der Konkurrenz. So hat Altavista in den USA ebenfalls ein "Spam-Team" gegründet, das "schwarze Listen" von bekannten Übeltätern erstellen und die Link-Analysen verbessern soll. Andreas Hartmann, Product Manager bei Altavista, sieht das derzeit ganz sportlich als "Rennen zwischen Suchmaschinen und Optimierern" - Ausgang offen. In Deutschland setzt man derweil auf Konsens statt auf Konfrontation. Eine Projektgruppe des Deutschen Multimedia Verbandes (dmmv) soll "Richtlinien für seriöses Suchmaschinen-Marketing" erarbeiten. Dahinter steckt die Vermutung, dass auch die Optimierer an sinnvollen Suchergebnissen interessiert sind - die Vorschläge sind freilich nicht bindend. Christoph Huneke, Sprecher des dmmv, ist dennoch zuversichtlich, dass es eine Lösung gibt. Denn ansonsten, so Huneke, "surfen die Leute wieder im Videotext statt im Internet".
-
Umstätter, W.: Zwischen Informationsflut und Wissenswachstum : Bibliotheken als Bildungs- und Machtfaktor der modernen Gesellschaft (2009)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 917) [ClassicSimilarity], result of:
0.02899406 = score(doc=917,freq=50.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 917, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=917)
0.25 = coord(1/4)
- Footnote
- Rez. in: BuB 62(2010) H.2, S.160-161 (J. Eberhardt): "Der Titel von Walther Umstätters jüngstem Buch verspricht erfahrungssatte Urteile: Er klingt nach einer Summe der wissenschaftlichen und praktischen Arbeit des ausgewiesenen Fachmannes. Bis 2006 lehrte der promovierte Biologe am Berliner Institut für Bibliotheks- und Informationswissenschaft, zuvor an der Fachhochschule für Dokumentations- und Bibliothekswesen in Köln und hatte 1975 bis 1982 an der Universitätsbibliothek Ulm die erste Online-Literaturdokumentation aufgebaut. Nun legt er seinen »Rückblick« vor »auf eine Entwicklung, die ihre Schatten schon weit voraus geworfen hat und deren Erkenntnisse Licht in unsere Zukunft bringen«, wie der Klappentext mit einer schiefen Metapher ankündigt. Intelligenz nicht trainierbar? Tatsächlich bietet das Buch eine Fülle von Meinungen und Urteilen - recht selten ist ersichtlich, was diese mit dem vom Titel angekündigten Thema des Buches zu tun haben. Umstätter präsentiert autobiografisch-anekdotisch einige Lieblingsgedanken. Er bettet sie in eine Fülle von Bemerkungen ein, die nur eines gemeinsam haben: Er wollte sie veröffentlichen. So streift er unter anderem auf den hier beispielhaft herausgegriffenen Seiten 50 bis 100 (von etwa 300 Seiten) die Themen Vegetarismus (unrealistische Utopie!, Seite 57), Amokläufe (schlechte Didaktik macht Schüler aggressiv! S. 58), Willensfreiheit (ganz einfaches Problem! S. 75), Atheismus (verantwortungslos! S. 77), Bachelor-Abschluss (Etikettenschwindel! S. 86), Sinn von Strafe (durch Massenmedien verzerrt! S. 100), Nationalsozialismus (bornierte Dummköpfe! passim). Doch worum geht es im Ganzen? Dies festzustellen macht Umstätter seinen Lesern nicht leicht. Der Rezensent orientiert sich an ein paar Begriffen, die dadurch herausgehoben sind, dass sie einem im Buch häufiger begegnen: »Intelligenz«, »Wissen«, »Information« beziehungsweise »Informationstheorie«. »Intelligenz«, schreibt Umstätter, »ist das ererbte Wissen von Lebewesen, im Gegensatz zu dem, das sie im Laufe ihres Lebens erwerben« (S. 49 und an anderer Stelle). Dieser Satz mutet an wie eine Definition, und er erklärt dem verblüfften Leser zum Beispiel, warum Umstätter Intelligenz für nicht trainierbar hält (S. 45): Wissen lässt sich eben nicht trainieren. Wie kommt Umstätter darauf? Ist das eine in der Biologie übliche Definition, die er sich aus dem Studium bewahrt hat?
Der Umgangssprache entspricht sie jedenfalls ebenso wenig wie der Psychologie oder der Erziehungswissenschaft: Das »Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts« gibt die Bedeutung von »Intelligenz« mit »geistige Fähigkeit, Klugheit« an (ähnlich das deutsche »Wiktionary«« und der »Große Duden«). Die Psychologie benutzt »Intelligenz« als Allgemeinbegriff für kognitive Fähigkeiten. Andere Definition von Wissen Es ist dem Rezensenten nicht gelungen, eine Quelle zu finden, die diese Definition mit Umstätter teilt, was auch dadurch erschwert wurde, dass er selbst keine angibt. Trotzdem genügt diese Definition dem Autor, um »unzählige Laien, aber auch Wissenschaftler« dafür zu tadeln, dass sie das Wort Intelligenz falsch gebrauchen (S. 53). Das ist umso bemerkenswerter, als auch die Vorstellung, dass »Wissen« angeboren sei, dem Alltagsgebrauch des Begriffs »Wissen« widerspricht. »Wissen«, als Tätigkeitswort, meint »von etwas Kenntnis haben«, und das »Wissen«, als Substantiv, ist dann die Formulierung dieser Kenntnis. Für Umstätter ist »Wissen« schlicht etwas, was abrufbar ist: Eine Pflanze »weiß«, wie sie wachsen muss, ein Vogel »weiß«, wie er fliegen muss. »Der Grund dafür, dass die Erkenntnis, dass auch Pflanzen schon Wissen haben und nicht nur der Mensch, vielen Wissenschaftlern Schwierigkeiten bereitet, ist einfach, die meisten Menschen verwechseln Wissen mit Bewusstsein«, schreibt Umstätter (S. 171). »Die meisten Menschen« liegen also falsch, aber Umstätter nicht! Solcherart definiert, lässt sich der Begriff auf alles Mögliche anwenden. Konsequent wäre es, festzustellen, dass auch Pantoffeltierchen »ererbtes Wissen« haben - und also »intelligent« sind. Unabhängig von solcher alltagsfernen Gebrauchsfestlegung bringt Umstätter eine andere Definition von »Wissen«. Diese leitet er aus dem ab, was er für »Informationstheorie« hält, nämlich: »Wissen ist bei genauerer Betrachtung begründete Information [...], also eine Information, zu der eine Begründung ihrer Richtigkeit gehört. Diese Begründung ist aber im Prinzip nichts anderes als eine spezielle Form der Redundanz, aus der man auf die folgende Information schließen kann, eine a priori Redundanz« (S. 82, vgl. S. 172, S. 224). Auch hier wüsste der Leser gerne, ob es für diese Definition eine andere Quelle als den Autor gibt.
Umstätter erklärt die Idee der »A-priori-Redundanz« wie folgt: »Wenn wir beispielsweise die Information haben, dass die Kirchturmuhr, die wir in einer schlaflosen Nacht hören, vor einer Stunde Elf geschlagen hat, wissen wir, sobald wir den ersten Schlag hören, dass nun noch elfweitere folgen werden.« Man weiß, dass noch elf Schläge folgen werden, weil man die elf Schläge aus dem ersten vorhersagen kann, so Umstätters Überlegung. Aber ist die Zahl der Schläge das, was wir wissen wollen, wenn die Uhr schlägt? Oder geht es nicht vielmehr darum, dass wir wissen wollen, wieviel Uhr es ist? Schlagzahl und Uhrzeit sind durchaus verschiedene Dinge, und ihr Zusammenhang ist nicht etwa der der »Begründung«. Dass die Uhr zwölf Mal schlägt, bedeutet, dass es zwölf Uhr ist; aber das Uhrenschlagen verursacht die Uhrzeit nicht. Umstätter jedoch denkt sich den Begründungszusammenhang tatsächlich kausal (wie man auf Seite 169 sieht, wo er von der »kausalen Vernetzung« der Begründung mit dem Begründeten schreibt). Feinheiten der Informationstheorie Umstätter meint, sein esoterischer Wissensbegriff habe die Folge, dass Wissen sich »messen« ließe »wie Information« in Bits und Bytes (S. 172). Wie genau das gehen soll, verraten aber auch andere Umstätter-Publikationen nicht. Man erfährt dort nur, dass die vorhergesagte Information mit der eintreffenden »Bit für Bit« verglichen werden müsse. Würde das bedeuten, ich habe ein Wissen von »zwei Bit«, wenn die vorhergesagte Information von der eintreffenden um zwei Bit abweicht? Oder eines von 98 Bit, wenn 98 Bit zwischen beiden übereinstimmen? Aber nach Umstätter sind doch diese 98 Bit in der zweiten Information gerade redundant? Was fangen wir damit an, dass dieselben »Informationen« (umgangssprachlich gesprochen) sich unterschiedlich codieren lassen, also in unterschiedliche Bitmengen gefasst werden können? Der Rezensent will gerne einräumen, dass er als Geisteswissenschaftler die Feinheiten der Informationstheorie vielleicht einfach missversteht, deren Bedeutung Umstätter nicht müde wird zu betonen und in deren Gedankengebäude er sich wie zu Hause zu fühlen scheint. Allerdings hat er ein paar Zimmer eingebaut, die man in anderen Darstellungen nicht findet, sodass es nicht so erstaunlich ist, wenn sich der Leser nicht gleich zurechtfindet.
So schreibt Umstätter etwa, »eine Information können wir nach der Informationstheorie von Shannon, Weaver, Wiener etc. nur als solche bezeichnen, wenn sie für uns neu ist. Wenn wir dagegen zum hundertsten Mal lesen, dass wir unter einer Informationsflut leiden, ist das Redundanz« (S. 107). Nach der Informationstheorie von Shannon/Weaver bezieht sich jedoch Redundanz auf die Übermittlung einer Nachricht. Sagt man, dass sich eine Nachricht zu einer anderen »redundant« verhält, dann benutzt man das Wort »Redundanz« nicht fach-, sondern alltagssprachlich. Offene Fragen Außer Umstätter käme wohl auch kein Informationstheoretiker auf die Idee, den Begriff »Wissen« in seine Überlegungen einzubeziehen, da hier, selbst wenn man Umstätters eigenwilliges Verständnis von »Wissen« zugrunde legt, der Begriff der »Bedeutung« ins Spiel zu kommen droht: Nur die Bedeutung sagt einem, ob beim Bit-für-Bit-Vergleich zweier Zeichenstränge die Abweichung des zweiten überraschend ist, das heißt »informativ« (im altagssprachlichen Sinne), oder ob schlicht ein Übermittlungsfehler vorliegt. »Die Informationstheorie war im letzten Jahrhundert ohne Zweifel die größte Revolution«, meint Umstätter (S. 34), trotz echter Revolutionen wie der friedlichen vom November 1989. Sie »bildet seit 1963 (Weinberg-Report) die Basis der Bibliothekswissenschaft«, daher seien die Begriffe Bibliothekswissenschaft und Informationswissenschaft »weitgehend tautologisch« (S. 166) Trotzdem widmet er tatsächlich einige Gedanken auch noch echten Bibliotheken, schreibt über die Geschichte von IuD in Deutschland, über die »Online-Revolution«, über das Internet. Das geschieht jedoch so wenig zielbewusst, dass das Buch zu keiner These kondensiert, die sich hier wiedergeben ließe. Die (mögliche) Bedeutung der Informationstheorie für die praktische Arbeit der Bibliotheken bleibt dem Leser darum verborgen. Und was Wissensmessung, so sie vorgenommen werden kann, austrägt für die Theorie der Wissensorganisation, für die Gestaltung von Katalogsbenutzeroberflächen, für die Lehre der Informationskompetenz oder für die »Macht« in der Gesellschaft, um beim Buchtitel zu bleiben, das steht dahin.
Fazit Das Buch ist 300 Seiten dick und doch sehr dünn. Bis zur letzten Seite muss der Leser rund 600 Kommafehier, 200 Druckfehler (»Juriprodenz«, S. 311) und exzessive Selbstreferenzialität des Autors ertragen (58 von 145 Titel im Literaturverzeichnis sind von ihm). Ganz ernsthaft schreibt er Sätze wie: »Durch die Massenmedien unserer Zeit, besteht schon seit längerem die große Gefahr, dass Kriminalität, Faustrecht, Pornographie etc. kultiviert und damit das Wort Kultur immer stärker verballhornt wird. Es war nicht zuletzt der Nationalsozialismus, der unter J. Goebbels die Massenmedien dazu missbrauchte, Gewalt und Betrug in Deutschland zur Durchsetzung eigener Interessen zu kultivieren.« (S. 311) Störend ist zudem die ständige »Die anderen irren«-Attitüde angesichts der zahlreichen Irrtümer im Buch. - Ein paar Beispiele: - Die Autorin der Harry-Potter-Romane heißt nicht »Rawlings« (S. 146) und Kleists Heldin von Heilbronn nicht »Gretchen« (S. 150). - »Naheliegend« findet die Tatsache, dass eine »dichotome Verzweigung« zwei Äste hat (S. 179), nur, wer nicht weiß, dass dichotom »zweiteilig« bedeutet. - Goethe wollte mit den Versen »Wär nicht das Auge sonnenhaft, / die Sonne könnt es nie erblicken« sicher nicht, wie Umstätter aber gönnerhaft feststellt, »sehr schön deutlich [machen], dass die Lebewesen dieser Erde die physikalischen Gesetzmäßigkeiten in sich inkorporiert haben« (S. 76, Fn. 50) - das Sonnenhafte des Auges geht unmissverständlich über Physik hinaus. - Die »eigentliche Bedeutung des Wortes Psyche« ist nicht »unsterbliche Seele« (S. 257); die Vorstellung einer »unsterblichen Seele« ist viel jünger als das Wort, das Umstätter gegen die Psychologie in Schutz nimmt. Solcherlei dem Autor vorzuhalten, ist - das sei abschließend festgestellt - darum naheliegend, weil Umstätter jegliche Selbstreflektion fehlt. Wer im Glashaus sitzt, für den ist es womöglich unsichtbar."
-
Einführung und Nutzung der Dewey Decimal Classification (DDC) im deutschen Sprachraum : Vorgelegt von der Arbeitsgruppe Klassifikatorische Erschließung im Auftrag der Konferenz für Regelwerksfragen (2000)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 3653) [ClassicSimilarity], result of:
0.02899406 = score(doc=3653,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 3653, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3653)
0.25 = coord(1/4)
-
Chaitin, G.: ¬Die Grenzen der Gewissheit (2006)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 4478) [ClassicSimilarity], result of:
0.02899406 = score(doc=4478,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 4478, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4478)
0.25 = coord(1/4)
- Abstract
- Konzepte von Komplexität und Zufall zusammen mit Ideen der Informationstheorie führen zu der Erkenntnis, dass es niemals eine Mathematik geben kann, in der sich alles Wahre auch beweisen lässt.
-
Bayer, M.: "New Love" erzeugt Leere in Computer-Herzen : Neuer Virus verbreitet sich seit Freitag - er gilt als listiger und aggressiver als der vermeintliche Liebesbrief "I love you" (2000)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 1531) [ClassicSimilarity], result of:
0.02899406 = score(doc=1531,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 1531, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1531)
0.25 = coord(1/4)
-
Ganslmayer, K.: Google: Finden, was Google nicht sieht (2006)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 3248) [ClassicSimilarity], result of:
0.02899406 = score(doc=3248,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 3248, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3248)
0.25 = coord(1/4)
- Abstract
- Manchmal schient Google blind: Unbrauchbare und werbefinanzierte Webseiten dominieren das Suchergebnis. schluss damit! So finden Sie schnell sinnvolle Inhalte: Nicht indizierte Seiten aufspüren - Google mit Geheimbefehlen steuern - So entstehen Suchtreffer bei Google
-
Erlhofer, S.: Suchmaschinen-Optimierung für Webentwickler : Grundlagen, Funktionsweisen und Ranking-Optimierung (2005)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 4985) [ClassicSimilarity], result of:
0.02899406 = score(doc=4985,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 4985, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4985)
0.25 = coord(1/4)
-
Pöppe, C.: ¬Ein großer Brückenschlag in der Algebra (2002)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 385) [ClassicSimilarity], result of:
0.02899406 = score(doc=385,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 385, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=385)
0.25 = coord(1/4)
- Abstract
- Der 35-jährige Mathematiker Laurent Lafforgue hat die nobelpreisähnliche Fields-Medaille 2002 dafür erhalten, dass er einen wesentlichen Teil eines umfangreichen 35 Jahre alten Forschungsprogramm (Beweis der Langlands-Vermutung (Jede L-Reihe eine Körpererweiterung ist auch Reihenentwicklung einer automorphen Funktion und umgekehrt) für Funktionenkörper) erledigt hat
-
Tillett, B.: ¬The FRBR model : Functional Requirements for Bibliographic Records (2002)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 1759) [ClassicSimilarity], result of:
0.02899406 = score(doc=1759,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 1759, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1759)
0.25 = coord(1/4)
- Abstract
- Überblick über die Ideen und Ziele des FRBR-Ansatzes
-
Funktionelle Anforderungen an bibliografische Datensätze : Abschlussbericht der IFLA Study Group on the Functional Requirements for Bibliographic Records (2006)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 3263) [ClassicSimilarity], result of:
0.02899406 = score(doc=3263,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 3263, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3263)
0.25 = coord(1/4)
- Footnote
- Als pdf unter: http://www.d-nb.de/standardisierung/pdf/frbr_deutsch.pdf und http://www.ifla.org/VII/s13/frbr/frbr-deutsch.pdf.
-
Fryba, M.: Überleben im Web : Die Zukunft der Portale (2001)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 3597) [ClassicSimilarity], result of:
0.02899406 = score(doc=3597,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 3597, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3597)
0.25 = coord(1/4)
- Abstract
- Horizontale Portale sind Publikumsmagneten. Doch der Kampf um die Einnahmen aus der Werbewirtschaft wird zu Übernahmen und Pleiten führen. Umd welcher Surfer will schon Realtimekurse auf einer Erotikseite?
-
Schulzki-Haddouti, C.; Brückner, A.: ¬Die Suche nach dem Sinn : Automatische Inhaltsanalyse nicht nur für Geheimdienste (2001)
0.01
0.007248515 = product of:
0.02899406 = sum of:
0.02899406 = weight(_text_:und in 4133) [ClassicSimilarity], result of:
0.02899406 = score(doc=4133,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.24504554 = fieldWeight in 4133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4133)
0.25 = coord(1/4)
- Abstract
- Die Geheimdienste stehen vor einer Informationsflut, die sie mit herkömmlichen Mitteln nicht bewältigen können. Neue Möglichkeiten, die in Software-Projekten unter BND-Beteiligung entstanden, sollen das Defizit beseitigen und beliebig verknüpfte Informationen der analyse zugänglich machen