-
Beuth, P.: ¬Das Netz der Welt : Lobos Webciety (2009)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 3136) [ClassicSimilarity], result of:
0.030509226 = score(doc=3136,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 3136, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3136)
0.25 = coord(1/4)
- Content
- "Es gibt Menschen, für die ist "offline" keine Option. Sascha Lobo ist so jemand. Zwölf bis 14 Stunden täglich verbringt er im Internet. "Offline sein ist wie Luft anhalten", hat er mal geschrieben. Der Berliner ist eine große Nummer in der Internet-Gemeinde, er ist Blogger, Buchautor, Journalist und Werbetexter. Er ist Mitarbeiter der Firma "Zentrale Intelligenz-Agentur", hat für das Blog Riesenmaschine den Grimme-Online-Award bekommen, seine Bücher ("Dinge geregelt kriegen - ohne einen Funken Selbstdisziplin") haben Kultstatus. Und politisch aktiv ist er auch: Er sitzt im Online-Beirat der SPD. Für die Cebit 2009 hat er den Bereich Webciety konzipiert. Dazu gehört der "Messestand der Zukunft", wie er sagt. Alles, was der Aussteller mitbringen muss, ist ein Laptop. Youtube wird dort vertreten sein, die Macher des Social Bookmarking-Werkzeugs "Mister Wong", aber auch Vertreter von DNAdigital, einer Plattform, auf der sich Unternehmen und Jugendliche über die Entwicklung des Internets austauschen. Webciety ist ein Kunstbegriff, der sich aus Web und Society zusammensetzt, und die vernetzte Gesellschaft bedeutet. Ein Großteil der sozialen Kommunikation - vor allem innerhalb einer Altersstufe - findet inzwischen im Netz statt. Dabei sind es nicht nur die Teenager, die sich bei SchülerVZ anmelden, oder die BWL-Studenten, die bei Xing berufliche Kontakte knüpfen wollen. Laut der aktuellen Studie "Digitales Leben" der Ludwig-Maximilians-Universität München ist jeder zweite deutsche Internetnutzer in mindestens einem Online-Netzwerk registriert. "Da kann man schon sehen, dass ein gewisser Umschwung in der gesamten Gesellschaft zu bemerken ist. Diesen Umschwung kann man durchaus auch auf der Cebit würdigen", sagt Lobo. Er hat angeblich 80 Prozent seiner Freunde online kennen gelernt. "Das hätte ich nicht gemacht, wenn ich nichts von mir ins Netz gestellt hätte." Für ihn sind die Internet-Netzwerke aber keineswegs die Fortsetzung des Poesiealbums mit anderen Mitteln: "Wovor man sich hüten sollte, ist, für alles, was im Netz passiert, Entsprechungen in der Kohlenstoffwelt zu finden. Eine Email ist eben kein Brief, eine SMS ist keine Postkarte."
Die moderne Kommunikationstechnologie hat die Gesellschaft verändert. Mittlerweile wächst eine Generation heran, die zwischen Internet und dem, was Lobo leicht spöttisch die Kohlenstoffwelt nennt, gar nicht mehr trennt. "Wenn man heute mit 13-,14-, 15-Jährigen spricht, und die sagen: 'Dann hat er mir das erzählt, und dann haben wir uns Fotos angeguckt', dann ist überhaupt nicht klar, ob man das Auge in Auge gemacht hat oder im Netz. Es ist aber auch gar nicht so wichtig." Diese Veränderungen haben aber auch ihre Schattenseiten. Beispiel: Rottenneighbor.com, wo Nachbarn anonym denunziert werden. Oder die Gefahr, dass Personalchefs kompromittierende Fotos von einem Bewerber im Netz finden, wofür der sich beim Vorstellungsgespräch rechtfertigen muss, wenn er denn noch eingeladen wird. Für Lobo überwiegen die Vorteile der Vernetzung: "Der Mensch ist ein soziales Wesen und braucht die Interaktion. Und wenn das im Elektronischen stattfindet, dann will er daran teilnehmen, weil das alle anderen auch machen." US-Präsident Barack Obama hat das sehr professionell für seinen Wahlkampf genutzt. Er hat Profile bei Facebook, MySpace und Twitter eingerichtet und allein mit seiner Online-Präsenz zigtausende junge Wähler erreicht - selbst wenn er über seinen Twitter-Account so gut wie nichts Persönliches verbreitete, sondern nur die nächsten Wahlkampftermine veröffentlichte. Wer sich gut vernetzt, profitiert aber auch im Alltag davon. Ein Beispiel, das auf Wirtschaftsvorträgen gerne genannt wird, ist das einer Praktikantin, die neu in der Stadt ist und einen Zahnarzt sucht. Die Kollegen empfehlen ihr zwei, die sie für gleich gut halten. Was tut die Frau? Sie prüft im Internet, welcher Arzt besser vernetzt ist, denn der, vermutet sie, verfügt wahrscheinlich auch über die modernere Ausstattung.
Auch ambitionierte soziale Projekte können gelingen: Refunite.org ist eine Art Suchmaschine, mit der Flüchtlinge weltweit nach vermissten Familienangehörigen suchen können. Lobo nennt als Beispiel die englische Seite fixmystreet.co.uk. Dort tragen Menschen ihre Postleitzahl ein und weisen auf Straßenschäden oder fehlende Schilder hin, oft bebildert mit selbst geschossenen Fotos. Die Eingaben werden an die zuständige Behörde weitergeleitet, damit die weiß, wo sie Schlaglöcher ausbessern muss. Online steht dann nachzulesen, was alles in einem Stadtteil verbessert wurde - und was nicht. "Das ist ein relativ simples Tool, das aber die Fähigkeit des Netzes, Informationen zwischen den Menschen neu zu sortieren, dazu nutzt, die Welt tatsächlich zu verbessern", sagt Lobo. 2009 feiert die Cebit also, dass wir alle online sind. In zehn Jahren wird sie feiern, dass wir das gar nicht mehr merken, glaubt Lobo: "Ich bin überzeugt davon, dass wir noch vernetzter sein werden." Halbautomatische Kommunikation nennt er das. "Dass zum Beispiel mein Handy ständig kommuniziert, wo ich gerade bin und diese Information einem ausgewählten Personenkreis zugängig macht. Dass mein Kalender intelligent wird und meldet, dass ein Freund zur gleichen Zeit in der Stadt ist. Vielleicht schlägt er dann vor: ,Wollt ihr euch da nicht treffen?' Solche Funktionen werden so normal sein, dass man im Prinzip ständig online ist, ohne dass es sich so anfühlt." Teilweise gibt es so etwas schon. Google hat mit "Latitude" gerade einen Ortungsdienst fürs Handy vorgestellt. Die Software sorgt dafür, dass ausgewählten Personen per Google Maps angezeigt wird, wo sich der Handybesitzer gerade aufhält. Der technophile Obama würde den Dienst wahrscheinlich mögen. Doch der Geheimdienst NSA wollte ihm sogar schon den Blackberry wegnehmen - damit der mächtigste Mann der Welt eben nicht ständig geortet werden kann."
-
Langer, U.: ¬Der öffentlich-rechtliche Sündenfall : ARD und ZDF bauen ihre Internet-Auftritte aus und ziehen dabei den Ärger der kommerziellen Konkurrenz auf sich (2001)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 4573) [ClassicSimilarity], result of:
0.030509226 = score(doc=4573,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 4573, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4573)
0.25 = coord(1/4)
- Abstract
- Fritz Pleitgen geht in die Offensive. Der WDR-Intendant und ARD-Vorsitzende sieht nur Gutes darin, wenn die ARD künftig im Internet stärker präsent wäre. In seiner Vision ist das Internet die universale Plattform für alle Rundfunkdienste, und in einem solchen Konzept ist selbstverständlich auch für die öffentlich-rechtlicben Anstalten viel Platz. Angriff ist die beste Verteidigung, und so sprach Pleitgen von Lücken in der Angebotspalette", die ,ohne ein öffentlich-rechtliches Engagement im Internet nicht mehr korrigierbar waren". Und er warf die, grundsätzliche Frage auf, ob eigentlich alle von den öffentlich-rechtlichen Sendern über das Datennetz bereitgestellten Dienste vom Gebührenzahler zu finanzieren seien. Das Forum in dem Pleitgen seine Vision vom Netz der Netze vorstellte, hatte er mit Bedacht gewählt: der Medienausschuss des CDU-Wirtschaftsbeirats. Das ist deswegen bemerkenswert', weil Teile der Union - genauso wie die kommerziellen Rundfunksender und die Zeitungsverleger den öffentlich-rechtlichen Rundfunkanstalten im Internet nur die reine Begleitung des Fernseh- und Radioprogramms erlauben wollen. Er stelle seine Thesen ,abseits vom medienpolitischen Säbelgerassel" vor, betonte Pleitgen. Der ARD-Vorsitzende agiert auf vermintem Gelände. Die Branche beäugt zur Zeit argwöhnisch seine Planspiele, möglicherweise die Rundfunkarchive der ARD gegen Selbstkostenerstattung im Internet zu öffnen. Zwar wolle die ARD mit solchen Spezialdiensten, wie Pleitgen betont, kein Geld verdienen. Doch auch oder gerade das stößt den Konkurrenten sauer auf, denn gegen Rundfunkgebühren-subventionierte Audio- und Videodateien zum Herunterladen könnten sie nicht gewinnbringend konkurrieren. "Das ist Marktverzerrung", sagt Ursula Adelt, Geschäftsführerin des Interessenverbandes VPRT der kommerziellen Rundfunksender. Freilich: Würde die ARD Marktpreise erheben wollen, würden die Kritiker dies wiederum als unerlaubtes Eindringen in ihre Domäne E-Commerce brandmarken. Mit Auftragsgutachten versuchen die Kontrahenten ihre Positionen zu belegen. Pleitgen sieht sich von seinen Kritikern allerdings gründlich missverstanden.
"Ich will mit E-Commerce nichts zu tun haben", betont der ARD-Vorsitzende gegenüber der FR. Aber ebenso wie wir im Fernsehen Kassetten von Mitschnitten zu unseren Selbstkosten abgeben, sollten wir auch im Netz darüber nachdenken, bestimmte aufwändige Zusatzangebote mit einem Mehrwert gegen eine Kostenerstattung abzugeben." Keinesfalls wolle die ARD "marktscheierisch" ihre Archive bewerben. Vielmehr möchte die ARD online künftig ebenso wie heute schon offline spezielle Anfragen erfüllen dürfen, erläutert Pleitgen: "So wie Ich habe da eine Dokumentation gesehen, darin war mein Großvater zu sehen. Können sie mir diese Kassette nicht besorgen?' Oder ,Da lief eine interessante Sendung über Arthrose, die haben wir leider verpasst.' Dann bekommt der Interessent seinen Wunsch zum Selbstkostenpreis erfüllt. Das betrachte ich als Kundenservice, den man aber nicht dem Gebührenzahler aufbrummen sollte", so der ARD-Vorsitzende. Dennoch könnte den Rundfunkgebührenzahlern ab 2005 einiges an Mehrkosten aufgebrummt werden. 22 Millionen Mark pro Jahr dürfen die ARD-Anstalten derzeit in ihre Online-Aktivitäten investieren. Doch schon jetzt ist absehbar, dass die Sender mit dieser Summe nicht auskommen werden, um - wie geplant - ihr gemeinsames Dachportal ard.de und das Nachrichtenportal tagesschau.de auszubauen, Netz-Informationen zu Sport- und Börsenthemen anzubieten und die Angebote der einzelnen Sender weiter zu entwickeln. Rund 350 Millionen Mark wollen die ARD-Anstalten deshalb ab 2005 für ihre Internet-Pläne aus dem Gebührentopf herausholen. Mit der Forderung nach einer InternetGebühr ("Diesmal ist es fällig") zitierte am Montag das Fachblatt Der Kontakter Schleswig-Holsteins Ministerpräsidentin Heide Simonis. Die Ministerpräsidentin hat weder eine eigene noch eine zusätzliche Internetgebühr gefordert", dementierte dagegen Matthias Knothe, Leiter des Medienreferats in der Kieler Staatskanzlei. Simonis setze sich vielmehr wie bisher für eine allgemeine Geräteabgabe ab 2005 ein, so dass die Frage, ob ARD und ZDF per Fernseher, Internet oder UMTSHandy ins Haus kommen, künftig irrelevant werden könne. Zudem erläuterte Knothe gegenüber der FR: "Der öffentlich-rechtliche Rundftink ist online vertreten. Dieser Vertriebsweg versucht Kosten, die zu einer Erhöhung der Rundfunkgebühren führen können." Die Anstalten sollten daher überlegen, ob sie nicht in anderen Bereichen Gebühren einsparen könnten.
Beim ZDF steht die Forderung nach höheren Rundfunkgebühren nicht im Vordergrund. Rund acht Millionen Mark pro Jahr dürfen die Mainzer jährlich für ihre Online-Investitionen ausgeben. Zusätzlich kassiert. das ZDF nach Informationen aus der Branche noch einmal 6,5 Millionen Mark pro Jahr aus seinem neuen Kooperationsabkommen mit T-Online. Nach dem Auslaufen'seines bisherigen Deals mit dem US-Nachrichtenanbieter MSNBC will das ZDF im August mit Deutschlands führendem Online-Anbieter ein neues Nachrichtenportal unter der Adresse heute.t-online.de eröffnen. Kritiker sehen darin einen Sündenfall: Das ZDF könne angesichts solcher Summen künftig über T-Online und seinen Mutterkonzern Telekom kaum noch unabhängig berichten. Außerdem wachse T-Online durch die preiswerte Nutzung gebührenfinanzierter Fernsehinhalte ein wettbewerbswidriger Vorteil zu. Allein die Tatsache, dass das ZDF die neue Website einblenden wird, gilt als Gold wert. Falls Pleitgen mit seiner Grundsatzrede die Wogen der Kritiker glätten wollte, dann ist sein Kalkül nicht aufgegangen. Denn nun steht der Internet-Vordenker unter den ARD-Intendanten erst recht als Gebühren-ahmentierter Expansionist am Pranger. Von mangelnder Meinungsvielfalt im Internet, die ein öffentlich-rechtliches Gegengewicht gebiete, könne im Internet wohl kaum die Rede sein, betonen Kritiker. "Der öffentlich-rechtliche Rundfunk hat bei allem, was er macht, einen Heiligenschein", klagt Ursula Adelt, Geschäftsführerin des Interessenverbandes VPRT der kommerziellen Rundfunksender. "Das Thema Programmvielfalt ist im Internet sicherlich kein Thema", sagt auch Thomas Hesse, Geschäftsführer der RTL New Media GmbH. Auf die Strategie seines Unternehmens hätten die ARD-Pläne allerdings keinen Einfluss. ,Angesichts der schwierigen Refinanzierbarkeit von Inhalte-Angeboten im Internet ist es wahrscheinlich, dass sich mehr und mehr die Abrechnung von kleinen Gebühren für das Herunterladen von Videos durchsetzt. Man sieht das heute schon im Bereich der Musik", sagt Hesse. An die Zukunft solcher "micro-payments" im E-Commerce glaubt auch Pleitgen, schließt sie aber für die ARD auch künftig kategorisch aus. ZDF-Intendant Dieter Stolte und SWR-Intendant Peter Voss möchte wollen zudem das Werbeverbot für die ÖffentlichRechtlichen im Internet fallen sehen. Dazu sagt Pleitgen: Ich bin nicht sehr scharf auf Werbung. Ich glaube nicht, dass wir uns darüber im Internet refinanzieren können. Im Augenblick läuft sie schlecht. Und wir schaden unserem Image."
-
Lischka, K.: 128 Zeichen für die Welt : Vor 40 Jahren schrieben Fachleute das Alphabet des Computers - und schufen damit dem ASCII-Standard (2003)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 1391) [ClassicSimilarity], result of:
0.030509226 = score(doc=1391,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 1391, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1391)
0.25 = coord(1/4)
- Abstract
- Wollen sich Menschen verständigen, brauchen sie eine gemeinsame Sprache. So wurde vor zwei Jahrtausenden in den Provinzen des römischen Imperiums fleißig Latein gelernt. Ähnlich ist das bei Computern; die miteinander in Kontakt treten: Sie benötigen eine gemeinsame Methode, um die Weltsprache digital abzubilden. Vor vier Jahrzehnten wurde sie geschaffen: Am 17. Juni 1963 bestimmte die "American Standards Association" (ASA), dass ein großes "A" der Zahlenfolge 1000001 entspricht. Genau 128 solcher siebenstelliger Binärcodes gibt es seither - entstanden war der"American National Standard Code for Information Interchange", ASCII. Die Bedeutung des offenen Standards rückt erst neuerdings wieder ins Bewusstsein der Netzöffentlichkeit. Bis vor kurzem war einer der Initiatoren von ASCII, der heute 83jährige Programmierer Bob Bemer, für seine Verdienste bei Programmiersprachen wie Cobol und Fortran bekannt. Jetzt hat ihm das renommierte amerikanische "Institute of Electrical and Electronics Engineer" (IEEE) die Auszeichnung "Computer Pioneer Award" verliehen - wegen seiner Verdienste um ASCII. Dass lange Zeit niemand an ASCII als besondere Errungenschaft dachte, liegt am Erfolg des Standards. Vor der Vereinheitlichung hatte jeder Computerhersteller seine eigenen Methoden, um Zeichen wie Buchstaben digital abzubilden. Bemer erinnert sich: "Es gab kaum Lösungsansätze, die alle Beteiligten befriedigten. Dabei zeichnete sich das Problem ab - immerhin wuchs die Verbreitung von Computer von Ende der 50er Jahre an stark. Zudem war die Entwicklung von Software teuer, und deshalb wollte man natürlich Code wiederverwenden." Also diskutierte Bemer mit den Kollegen und legte 1960 den ASCII-Entwurf vor. Das Konzept ist deshalb beachtlich, weil es bereits die Internationalisierung voraussah und ermöglichte. Bemer hatte unter anderem ein Zeichen definiert, das den Sprung zu ergänzenden Codetabellen anzeigt. So konnte ASCII von einem amerikanischen zu vielen internationalen Standards hatte ASCII eindeutig zu wenige davon für alle Zeichen der Welt. Auch für deutsche Umlaute war kein Platz. Die haben ihre Zuflucht in einem der vielen um ein achtes Bit erweiterten ASCII-Codesätze gefunden. Von den durch die Genfer "International Organization for Standardization" (ISO) genormten Zeichensätzen gibt es viele Varianten. Das große Ü steht im westeuropäischen Zeichensatz ISO 8859-1 - als Zeichen Nummer 220 oder binär ausgedrückt als 11011100. Es gibt die Zeichensätze für das kyrillische, hebräische und griechische Alphabet, und im Jahr 2001 wurde ein ThaiZeichensatz von der ISO angenommen. Der Weg dorthin war für den ASCII-Zeichensatz steinig. Es gab lange Zeit einen konkurrierenden Standard, der von Großrechnern benutzt wurde: EBCDIC. Doch das Betriebssystem Unix nutzte ASCII, ebenso die ersten Personal Computer Schon zu einer Zeit, als niemand an das bunte World-Wide Web dachte, war ASCII auch im Internet; nützlich. Denn um Infor mati en korrekt über das Netz, zu schicken,,müssen Internet-Protokolle allerlei allgemein verständliche Informationen über die Art und Bestimmung der beförderten Daten enthalten. Also etwa, wer der Empfänger einer E-Mail ist oder in welchem Zeichensatz der Autor eine Internetseite erstellt hat. Solche Dinge wurden schon früh in ASCII geschrieben. Der finnische Fachautor Jukka K Korpela, der eine der umfangreichen Geschichtsschreibungen zu ASCII zusammengetragen hat, sagt, der Wert von ASCII sei so versteckt wie diese internen Informationen nach dem Internet Protokoll.
Nach 40 Jahren lösen neue Konventionen ASCII langsam ab. Auf einer höheren Ebene gibt es Standards wie XML oder RDF Dabei geht es nicht nur darum, Zeichen einheitlich darzustellen, sondern dasselbe auch für die Struktur eines beliebigen Dokumententyps zu erreichen. Auch die bloße Kodierung von Zeichen übernimmt mehr und mehr ein ASCII-Nachfolger: Unicode. Diese Basis für neue Standards wie XML existiert seit 1991. Die Vereinheitlichungs-Methode ist eine andere als bei ASCII: Alle Schriftzeichen der Welt sollen in einem einzigen 16-Bit-Zeichensatz kodiert werden, nicht mehr in vielen einzelnen wie bei ASCII. Industriegrößen wie Apple, HP, IBM, Microsoft und viele andere mehr unterstützen diesen Standard, die aktuelle Version 3.1 enthält 94140 unterschiedliche Zeichen - auch aus Schriften wie Cherokee oder Katakana. So können auch innerhalb eines Dokuments verschiedenste Sprachen und Schriften gemischt werden, zudem unterstützt jede Unicode-kompatible Software . automatisch such seltene Sprachen, die es sonst mangels Marktmacht schwer hätten, überhaupt die Aufmerksamkeit großer Software-Konzerne zu bekommen. Uni! September fälligen Version 4.0 einen großen Teil >der heute noch gebräuchlichen Sprachen abdecken. Auch wenn der technische Ansatz ein anderer als bei ASCII ist, folgt Unicode in einem Punkt Bob Bemers ursprünglicher Idee: "Wir sind mit ASCII in eine ganz andere Richtung als Esperanto gegangen. Statt allen eine neue Sprache aufzuzwingen, gab ASCII allen Nutzern auf der Welt die Möglichkeit, ihre eigene Schrift weiter zu nutzen." Das ist der sprachphilosophische Grund für den Erfolg von ASCII. Es gibt aber auch den technologiephilosophischen: ASCII war ein offener Standard. Bob Bemer sieht darin den wesentlichen Grund für den Erfolg: "Es haben jene Dinge überlebt, die nie patentiert wurden und so ständig verbessert und zu neuen Projekten verwandelt werden konnten." Neben Technikern schätzen auch Künstler ASCII längst. Sie fasziniert die Offenheit und Schlichtheit der ursprünglich 128 Zeichen seit Jahren. Einer der etablierten Netzkünstler, die seit langem mit ASCII arbeiten, ist der New Yorker Andy C. Deck. Er beschreibt seine Begeisterung für nackte, formatlose Zeichen so: "In einer Medienumwelt, die so tief greifend mit Bildern zugestopft ist, hat der Künstler als Bilderproduzent ein Publikum vor sich, das bereits an einer gestörten Wahrnehmungsverteilung leidet." Hier scheint es ASCII ähnlich zu ergehen wie einst der lateinischen Sprache. Seit dem zweiten Jahrhundert berauschten sich Menschen an der Schönheit der Sprache Ciceros - doch abgesehen von einigen neuen Begriffen entwickelte sich Latein nicht mehr weiter. Aber lateinische Einflüsse leben in romanischen Sprachen fort. Genauso geht es auch ASCII: Der Standard verschwindet nicht - er ist ein Bestandteil von Unicode
- Content
- ASCII steht für American Standard Code for Information Interchange. Es ist ein international festgelegter Zeichensatz, der eingeführt wurde, um die Kommunikation zwischen Computersystemen verschiedener Hersteller zu erleichtern. Zur Kodierung werden sieben Bits verwendet, daher umfasst der Zeichensatz 2 hoch 7, also 128 Zeichen. Dazu gehören sämtliche Groß- und Kleinbuchstaben (außer Umlaute), die Ziffern 0 bis 9 sowie Sonder- und Steuerzeichen. Der erweiterte ASCII-Zeichensatz verwendet zur Kodierung acht Bits, kann daher 256 Zeichen darstellen - hier kommen auch die deutschen Umlaute unter. ASCII-Nachfolger Unicode arbeitet mit 16 Bits und 65 536 Zeichen - genug Raum auch für kyrillische oder chinesische Zeichen
-
Wille, J.: ¬Die Textgärtner : Wie bei dem Internet-Lexikon Wikipedia an der Wahrheit gearbeitet wird (2007)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 1394) [ClassicSimilarity], result of:
0.030509226 = score(doc=1394,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 1394, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1394)
0.25 = coord(1/4)
- Content
- "Angela Merkel ist gesperrt. George Bush auch. Aber nur der Junior, nicht der Senior, der in den 90ern US-Präsident war. Der teilt das fragile Schicksal mit "Joseph Martin 'Joschka' Fischer". Auch an Joschka kann jeder ran, der will. Ein Leichtes, aus dem "deutschen Politiker" zum Beispiel einen "deutschen Taxifahrer" oder, was noch falscher wäre, "deutschen Staubsaugervertreter" zu machen. Fischer, früherer Außenminister, Politrentner und US-Gastprofessor, steht völlig ungeschützt im Kosmos des Online-Lexikons Wikipedia. Jeder kann bei ihm Geschichte fälschen. Oder schlicht Unsinn verzapfen. Bei Merkel oder Bush jr. hingegen heißt es: "Der Artikel wurde für nicht angemeldete und neue Benutzer gesperrt, da er regelmäßig und in größerem Umfang von Vandalismus betroffen war." Wikipedia wehrt sich gegen die spontane Spaßguerilla, die sich im Internet austobt. Immerhin das. Arne Klempert bleibt gelassen. "So etwas kommt in einem offenen System eben vor"; sagt der 35-Jährige und meint: kein Grund, am Grundprinzip des Internet-Projekts zu zweifeln, wonach jeder an dem globalen Wissenspool mitschreiben kann. Der hiesige Wikipedia-Repräsentant - Geschäftsführer und einziger Festangestellter des Vereins "Wikimedia Deutschland" - reagiert ruhig, wenn man ihm in seinem spartanisch eingerichteten Frankfurter Büro die Info-GAUs vorhält, die in jüngerer Zeit das Image der "freien" Enzyklopädie beschädigt haben. Er kennt sie natürlich, Manipulationen wie die, als Mitarbeiter des (Noch-)Siemens-Chefs Klaus Kleinfeld dessen Fehler beim Verkauf der Handy-Sparte tilgten und dafür seine Erfolge als Manager feierten. Oder jene, als Bundestagsangestellte kritische Passagen über ihren MdB strichen. Aber das macht Klempert nichtirre an der Sache. Er kann zeigen, wie schnell in fast allen Fällen mutwilliger Unsinn und Fehler von anderen Wiki-Autoren wieder getilgt wurden. "Irgendwann , sagt Klempert, "fliegt jeder auf."
10 000 Texter am Werk "Akl , wie Klempert sich als Wiki-pedia-Benutzer im Internet nennt, hat 2003 als Hobby-Enzyklopädist bei der deutschsprachigen Ausgabe begonnen. Gestartet war das Original des US-Gründers Jimmy Wales 2001. "Ich war begeistert von der Idee und von dem, was von Hobby-Autoren in so kurzer Zeit geleistet worden war." Der frischgebacken Lexikon-Autor, ein Medien-Soziologe mit wechselnden Jobs als Journalist, Öffentlichkeitsarbeiter, PR- und Internet-Fachmann, beschrieb "Das Wunder von Bern", den ,,Heilklima-tischen Kurort" sowie die "Burg Königstein". Grundlegendes über "Heidi Klum", das Phänomen "Seifenoper" und die "Spielbank Bad Homburg" folgten. Wobei Klempert Wert darauf legt, dass man von den Themen nicht voreilig auf persönliche Vorlieben schließt. "Es macht mir Spaß , mich in die Themen reinzuhängen, von denen ich vorher keine Ahnung hatte." Die Wikipedia-Idee, das "Wissen der Welt" zu sammeln, aufbereitet von Freiwilligen, zum freien und damit kostenlosen Gebrauch im Internet veröffentlicht, hat "AM" sofort fasziniert. In der englischsprachigen Wikipedia stehen mittlerweile mehr als 1,8 Millionen Artikel, in der deutschen sind 600 000 erreicht. Quantitativ kann sich die Online-Enzyklopädie mit traditionellen Lexika messen, die mehr als 2000 Euro kosten. Zum Vergleich: Die Londoner Encyclopedia Britannica hat 70 000 Artikel, der Brockhaus 300000 Stichwörter.
Die abfälligen Bemerkungen der Traditionskollegen, etwa von Brockhaus-Sprecher Klaus Holoch, der Wikipedia in Uni-Arbeiten als nicht zitierfähig abkanzelte, kommentiert Klempert mit verblüffenden Worten. "Der Brockhaus ist besser", sagt er trocken. "Zumindest da, wo er besser ist." Das Selbstbewusstsein kommt nicht nur von hohen Nutzerzahlen: Wikipedia liegt weltweit in den Top Ten der meistgenutzten Websites, in Deutschland sogar meist in den Top Five. Das Wissenschaftsmagazin Nature ließ im vergangenen Jahr 42 Fachartikel aus Wikipedia mit denen aus der ehrwürdigen Britannica vergleichen. Dabei schnitten beide Lexika praktisch gleich gut ab. Bei der Britannica fanden die Experten drei Fehler pro Artikel, bei Wikipedia, vier. Zweifel, ob die Wiki-Welt funktioniert, sind in der Wiki-Szene seither noch geringer geworden. Das mag daran liegen, dass trotz des offenen Prinzips - jeder kann mitschreiben und umschreibendie Zahl der Mitarbeiter halbwegs überschaubar ist. Bei der deutschen Ausgabe texten rund 10 000 regelmäßig mit, davon sind etwa ein Zehntel Hauptautoren, die pro Monat mindestens 1000 Bearbeitungen schaffen. Pro Tag werden etwa 1000 neue Artikel ins Netz gestellt. Die Hälfte davon bleibt drin, die andere fliegt, nach einer Art Abstimmung unter den Wiki-Nutzern, wegen Nichtigkeit wieder raus. Gut 250 "Administratoren" aus der Gruppe der Vielschreiber moderieren den Prozess und überwachen "ihre" Themenfelder.
Klempert, der Administrator war, bevor sein Fulltime-Job bei Wikimedia als Organisator, Fundraiser und PR-Mann ihm die Zeit dafür raubte, nennt sie "Textgärtner". Was diese Online-Grünpfleger so machen? Klempert zitiert Spiegel-Autor Manfred Dworschak, der dafür die liebevolle Beschreibung fand: "Sie stutzen Wildwuchs, bringen Gliederungen in Form und jäten vor dem Schlafengehen noch schnell ein paar unsinnige Apostrophe." Klingt harmlos, aber tatsächlich lastet auf den Administratoren große Verantwortung. Sie müssen nicht nur eingreifen, wenn "Vandalen" die Lexikoneinträge unbrauchbar machen. Wie voriges Jahr, als Schüler in der Mit-tagspause auf die Idee kamen, vom Schul-PC aus 50 Artikel mit dem Zusatz "Unser Lehrer ist doof" u versehen. Oder als ein Journalist testhalber 17 Fehler in Texte hineinschmuggelte, um zu verfolgen, wie lange es dauert, bis sie korrigiert würden. "Wenn so was passiert, wird die IP-Adresse des Computer-Netzwerks gesperrt, von dem aus das gemacht wurde`; sagt Klempert. Das klappt nicht so einfach bei Privat-Computern, die über einen Provider ins Netz gehen und bei jeder Einwahl eine neue IP-Adresse (IP wie "Internet Protocol") zugeteilt bekommen. "Vandalen, die zu Hause zuschlagen, verlieren aber meist schnell die Lust, wenn sie gleich wieder gesperrt werden." Ein anderer "Selbstreinigungsmodus" (Klempert) greift beim "Edit-War`; beim Krieg der Autoren. Wurde ein Text von WikiSchreibern mehrfach hin und her geändert, sperrt der Administrator die betreffende Seite erst einmal. Die Kontrahenten müssen sich auf einer Diskussionsseite einigen, die zu jedem Wikipedia-Eintrag existiert. Erst dann wird der Lexikon-Beitrag wieder geöffnet. In dem Link "Autoren/Versionen" oben auf jeder Wiki-Seite lässt sich die Entstehungsgeschichte jedes Artikels nachvollziehen. "Automatisch werden hier die IPAdressen gespeichert`, sagt Klempert. So sind auch die Eingriffe bei den Texten über die Bundestagsabgeordneten aufgeflogen.
-
New directions in human information behavior (2006)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
0.030509226 = score(doc=1577,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 1577, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1577)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt VÖB 59(2006) H.2, S.83-88 (O. Oberhauser): "Dieser neue Sammelband möchte Interessenten aus den Bereichen Informationswissenschaft, Bibliothekswesen sowie Sozial- und Evolutionspsychologie aktuelle Entwicklungen und neue theoretische Ansätze auf dem Gebiet des menschlichen Informationsverhaltens-human information behavio(u)r bzw. kurz HIB - vermitteln. Es geht dabei um die komplexen Informationsprozesse, die in das alltägliche Sozialverhalten und die Lebensabläufe menschlicher Individuen eingebettet sind. Die beiden Herausgeber sind in diesem Teilbereich der Informationswissenschaft auch durch eine Reihe anderer Publikationen einschlägig ausgewiesen: Amanda Spink (vormals Universität Pittsburgh), die sich kürzlich selbst in aller Bescheidenheit als "world-class ICT researcher" beschrieb,' ist Professorin an der Technischen Universität Queensland (Australien); Charles Cole ist Research Associate (wissenschaftlicher Projektmitarbeiter) an der McGill University in Montreal und selbständiger Berater für Informationsdesign. Gemeinsam haben Spink und Cole zuletzt, ebenfalls bei Springer, eine weitere Aufsatzsammlung - New Directions in Cognitive Information Retrieval (2005) - herausgegeben. Das Buch versammelt zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich allerdings bei den Sektionen 1 und 5 (= Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Während erstere eigentlich nur eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden, darstellt, kann letztere als eigenständiger Beitrag gelten, der versucht, die in diesem Band angesprochenen Aspekte in einem vorläufigen HIB-Modell zu integrieren.
... New Directions in Human Information Behavior ist ein Sammelband, der eindrucksvoll dokumentiert, dass sich die Forschung zu den Themen Informationssuche bzw. Informationsverhalten - ein in unserem Sprachraum freilich wenig bekannter und weitgehend unrezipierter Teilbereich der Informationswissenschaft - gegenwärtig stark im Umbruch befindet. Der Trend von den bisherigen, eher an Paradigmen wie Dokument, fachliche Informationssuche, Bibliothek, wissenschaftliche Informationsnutzung orientierten Ansätzen hin zur Betrachtung alltäglicher Situationen und weiterer Bevölkerungsschichten sowie die Einbeziehung von neuen bzw. aus anderen sozialwissenschaftlichen Bereichen stammenden theoretischen Überlegungen ist nicht zu übersehen. Mitunter mutet dies wie eine (Wieder- bzw. Neu-)Entdeckung der Kommunikationswissenschaft durch die Informationswissenschaft an - oder auch umgekehrt, zumal einige der im vorliegenden Band Schreibenden aus communication departments kommen. Wie auch immer, wer sich für den gegenwärtigen Stand der Entwicklung auf dem HIB-Sektor interessiert, kommt um dieses Buch nicht herum. Allerdings taucht darin der Begriff framework - erfahrungsgemäss oft mit weniger handfesten Inhalten korreliert und mir daher stets ein wenig suspekt - für meinen Geschmack etwas zu häufig auf. HIB ist leider nicht das einzige Akronym, das hier eingeführt wird. Bisher ging es im gegenständlichen Kontext ja bloss um IS (information seeking) - ein neben IR (information retrieval) auch schon bekanntes und eingeführtes Kurzwort.
Angesichts des skizzierten Umbruchs kann HIB wohl akzeptiert werden, doch ist es - wie dieses Buch zu suggerieren trachtet - wirklich notwendig, daneben auch noch IBEC (information behaviour in everyday contexts), ELIS (everyday life information seeking), HIOB (human information organizing behaviour), CIB (collaborative information behaviour), CIS&R (collaborative information seeking & retrieval) und HICB (human information co-ordinating behaviour) zu verwenden? Wohl kaum, doch wer wird bzw. kann ein solches Spamming verhindern? Würde der akademische Ernst nicht jede Schadenfreude verbieten, so könnte man konstatieren, dass diese Akronymenflut zu unnötigen Druckfehlern führt (z.B. p.172, wo sogar in einer Zwischenüberschrift "HIBO" statt "HIOB" zu lesen ist). In herausgeberischer Hinsicht ist weiter zu bemängeln, dass die meist ansehnlichen und sich naheliegenderweise zum Teil überschneidenden Literaturverzeichnisse der einzelnen Beiträge besser in einer Gesamtbibliographie mit konsistentem Zitierstil zu vereinen gewesen wären, zumal sie in der vorliegenden Form auch etwas inkonsistent und nicht fehlerfrei sind. In diese Richtung zu investieren wäre sinnvoller gewesen als in die Erstellung eines geradezu erbärmlichen Sachregisters (dessen Verriss den Rahmen dieser Besprechung sprengen würde), welches auf Herausgeber bzw. Lektorat - falls es letzteres überhaupt noch gibt - ein eher fahles Licht wirft. Abgesehen davon fielen mir nur einige fehlerhafte bzw. unvollständige Angaben der Institutszugehörigkeiten am Beginn der einzelnen Kapitel (z.B. p.113, p.203) sowie die nicht ganz homogen gestalteten Kurzbiographien der Verfasser/innen am Ende des Buches auf. Der Band selbst ist von gewohnt solider Springer-Machart und zielt schon aufgrund seines hohen Preis wohl nur auf institutionelle Käufer ab."
-
Schulze-Pillot, R.: Koalition und Mathematik (2005)
0.01
0.0076273065 = product of:
0.030509226 = sum of:
0.030509226 = weight(_text_:und in 1893) [ClassicSimilarity], result of:
0.030509226 = score(doc=1893,freq=34.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.25258717 = fieldWeight in 1893, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1893)
0.25 = coord(1/4)
- Content
- "Im Umfeld von Bundestagswahl und Koalitionsverhandlungen gab es viel Mathematik in den Zeitungen, vor allem die Quadratur des Kreises war in aller Munde. Aber der Reihe nach: Am 25. September wies Gregor Gysi den Bundeskanzler zurecht (FAZ.net): Schröders Anspruch, Kanzler zu bleiben, nannte Gysi "egomanisch". "Wenn sich Schröder auf eine große Koalition einläßt, muß er die Mathematik beherrschen." Vielleicht hat Schröder ja letzten Endes deshalb auf seine Mitwirkung beim Projekt Große Koalition verzichtet. Bevor es nun aber mit den Koalitionsverhandlungen richtig losgehen konnte, musste erst noch in Dresden gewählt werden, und da kam auch wieder die Mathematik (oder etwa nur das Rechnen?) ins Spiel. Volkes Stimme äußerte sich dazu im Blog von lautgeben.de: Warum der Wahlkreis 160 noch richtig spannend wird, konnte man schon vor der Wahl bei Wahlrecht.de nachlesen. Nachvollziehen können die aktuellen Rechenbeispiele wohl nur Mathematiker oder Menschen mit vergleichbar abstrusen Neigungen: Via Zaister im Chat. Mmh, Zaister ist Mathematiker, oder? Also nicht, dass ich nun wieder missverstanden werde, selbstverständlich sind Mathematiker liebenswerte Menschen ... Die mutige Verteidigung unserer Berufsgruppe gegen den Vorwurf abstruser Neigungen riss allerdings leider alte Gräben wieder auf: nordlicht says: September 22nd, 2005 at 13:53 Danke für die Klarstellung mit den Mathematikern als liebenswerten Menschen (die abstrusen Neigungen nachgehen) :-) Das was da oben steht, hat allerdings mit Mathematik nicht so wahnsinnig viel zu tun. Das ist mehr Rechnen. Bestenfalls angewandte (igitt) Mathematik. Für richtige Mathematik braucht man keine Zahlen mehr, höchstens für die Indices. ein Mathematiker.
Nach diesem Vorgeplänkel kommen wir aber nun zur höheren Mathematik. Eine optimistische Note gab es von Fritz Kuhn (die Grünen) in einem Interview mit der TAZ: TAZ: Bedeutet Ihre "permanente Sondierung" nicht die Quadratur des Kreises? Wie wollen Sie Linkspartei-Wähler überzeugen und gleichzeitig Bündnisse mit der Union ausloten? Fritz Kuhn: Die Quadratur des Kreises ist doch ein attraktives Projekt. Im Ernst: Natürlich ist das nicht einfach, aber zum Beispiel unsere Strategie "Weg vom Öl" kann Leute auf allen Seiten überzeugen. Falls Herr Kuhn in einer späteren Regierung einmal Forschungsminister werden sollte, wissen wir jetzt jedenfalls, welche Projekte er für attraktiv hält. Dass die Sache nicht so einfach ist, wusste Roland Koch (FAZ.net, 3. 11.05): Hessens Ministerpräsident Roland Koch (CDU) sprach im Anschluß von anstrengenden und schwierigen Unterredungen. Sie seien aber konstruktiv gewesen. "Ich habe ihnen seit vielen Tagen gesagt, daß wir eine schwierige Diskussion führen, da es um Mathematik geht, wird sie auch nicht einfach." Dass mit der Mathematik nicht zu spaßen ist, konnte man auch im Berliner Tagesspiegel (13.11.2005) nachlesen: Aber natürlich wissen beide, dass auch noch so schöne Bilder nicht reichen werden zur Rechtfertigung, wenn die Leute demnächst in ihr Portemonnaie schauen. Nur, was hilfts? "Die Mathematik kann von niemandem auf dieser Erde außer Kraft gesetzt werden", sagt Merkel. Müntefering nickt. Die Frankfurter Rundschau hielt dagegen diese ganze Mathematik eher für Kinderkram (FR, 10. 11. 2005): Der Quadrateur Der designierte Vizekanzler Müntefering hatte beim SPD-Aufgebot fürs Kabinett viele Anforderungen zu bedenken VON KNUT PRIES (BERLIN) Die Quadratur des Kreises ist dagegen Kinderkram was Franz Müntefering bei der Mannschaftsaufstellung für die Koalition mit der Union alles berücksichtigen musste. war bruchlos kaum zusammenzufügen.
Derart vollmundige Ankündigungen waren vorab (ganz ohne Bezug zur Politik) schon vom Postchef Zumwinkel verurteilt worden (Financial Times Deutschland, 24.9.05): Das Geschäftsmodell der beiden Großverlage Springer und Holtzbrinck, die demnächst in die Briefverteilung einsteigen wollen, beurteilte Zumwinkel eher skeptisch. Zeitungen zusammen mit Briefen auszuliefern, sei die Quadratur des Kreises. Er habe schon einige vollmundige Ankündigungen gehört. Kinderkram oder nicht - Angela Merkel findet, dass es schwierigere Probleme gibt (siehe obigen Ausriss aus dem Berliner Tagesspiegel vorn 30.10.05). Der diensthabende Algebraiker merkt an, dass die Transzendenz der Zahl (3. Wurzel 4/3*Pi) ** (-1) die man für diese Aufgabe mit Zirkel und Lineal konstruieren müsste, natürlich zu der Transzendenz von Pi äquivalent ist, auch wenn es interessant und mysteriös wirkt, die Zahl 3. Wurzel 2 aus dem Delischen Problem der Würfelverdoppelung mit der Kreiszahl Pi oder gar deren dritter Wurzel zu kombinieren. Das Schlusswort zum Thema Quadratur aber gehört der Welt am Sonntag, die schon am 5.9.2004 zur Schulpolitik des Landes Bremen alles so klar machte, dass wir uns ausnahmsweise (bis auf die elementare Rechnung 1882 + 124 =?) alle Besserwisserei verkneifen müssen. Nur schade, dass der Artikel offenbar wenig gelesen wurde. Hamburgs Schulexperten können aber noch aus einem anderen Grund aufatmen: Mit Robert Heinemann, dem schulpolitischen Sprecher der CDUBürgerschaftsfraktion, verfügt die Politikerschaft der Hansestadt über einen wahrhaften Mathematikexperten und die Union über einen Mann, der, um eine legendäre Wendung des Ex-SPD-Generalsekretärs Olaf Scholz abzuwandeln, die Lufthoheit der Christdemokraten über den Mathematikunterricht an Hamburgs Schulen auf Jahre, wenn nicht auf Jahrzehnte hinaus sichern wird.
Was ist passiert? Heinemann hatte am vergangenen Dienstag die Öffentlichkeit per Presseerklärung wissen lassen, dass der Schulbehörde mit dem Zeitplan für die Schulentwicklungsplanung "die von der Bürgerschaft geforderte Quadratur des Kreises gelungen" sei. Lehrer und Eltern würden nun "so frühzeitig und umfassend wie nie zuvor eingebunden" und wüssten zugleich rechtzeitig vor der Anmelderunde Anfang des kommenden Jahres, was mit den jeweiligen Schulstandorten geschehen solle. Nun könnte man das Ganze als politische Geisterfahrt eines Parlamentsneulings abtun. Könnte man, hätte Heinemann nicht - quasi im Vorbeigehen - ein mathematisches Problem gestreift, an dem sich Wissenschaftler, glaubt man Wikipedia, der freien Enzyklopädie im Internet, über Jahrhunderte die Zähne ausgebissen haben. 1882 aber, und das ist nun auch schon 124 Jahre her, konnte Ferdinand von Lindemann beweisen, dass es unmöglich ist, nur mit Lineal und Zirkel ein Quadrat mit dem Flächeninhalt eines gegebenen Kreises zu konstruieren. Auf Heinemanns Fantasiewelt bezogen, bedeutet das: Die Bürgerschaft hat etwas gefordert, was nicht machbar ist, und die Schulbehörde unterbreitete daraufhin einen Verfahrensvorschlag, der zwar auch nicht machbar ist, sich aber gut vermarkten lässt. Allerdings hat Lindemanns Beweis viele "Freigeister" nicht daran gehindert, sich immer wieder der Quadratur des Kreises anzunehmen. Die Nutzlosigkeit dieser Arbeit, heißt es bei Wikipedia, habe deshalb die Wendung als Metapher bekannt gemacht. So wird diese als ein Synonym für ein Unterfangen genutzt, das von vornherein zum Scheitern verurteilt ist. Angesichts dieser Erläuterung bekommt Heinemanns Presseerklärung eine ganz andere Bedeutung: Sollte er den Vorschlag der Behörde etwa für ein zum Scheitern verurteiltes Unterfangen halten? Das wäre dann sicher eine Schlagzeile wert Epilog (www. tagesschau. de vom 23.11. 2005) Kleine Feier ganz privat Unmittelbar nach ihrer Wahl zog sich Merkel mit ihren Eltern und ihrem Bruder sowie ihrem Mathematiklehrer zu einer kleinen Feier im Nebenraum des Bundestages zurück. Ihr Mann, Joachim Sauer, zog es offenbar vor, die Wahl vor dem Fernseher zu verfolgen. Er gilt als öffentlichkeitsscheu und blieb der Ehrentribüne fern."
-
Flohr, M.: Daten für die Ewigkeit (2005)
0.01
0.0075461147 = product of:
0.030184459 = sum of:
0.030184459 = weight(_text_:und in 5029) [ClassicSimilarity], result of:
0.030184459 = score(doc=5029,freq=52.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2498984 = fieldWeight in 5029, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=5029)
0.25 = coord(1/4)
- Abstract
- Google scannt die altehrwürdige Bibliothek in Oxford. Doch wie lange halten die digitalisierten Werke? Sind unsere Daten auf CDs, Platten und Bändern in einigen Jahren überhaupt noch lesbar?
- Content
- "Was haben Ihre Urlaubsfotos mit dem kulturellen Erbe der Menschheit zu tun? An beiden nagt unerbittlich der Zahn der Zeit. Auf den Bildern aus Irland fehlt nach 20 Jahren ausgerechnet das so charakteristische Grün, die winterliche Gebirgslandschaft ist in penetrantes Rosarot gehüllt und das letzte Weihnachtsfest verblasst schneller als jede Erinnerung. In unseren Bibliotheken und Archiven bedrohen derweil Schimmel, Tintenfraß und Säure unersetzliches Schriftgut. Elektronische Medien können zwar Backups speichern, schaffen aber auch neue Probleme: Keiner weiß, wie lange die Daten beispielsweise auf einer CD wirklich halten. Der private Anwender kann hier von Profis lernen, für die Langzeit-Archivierung ein Dauerbrenner ist. Jedes Jahr entstehen weltweit inzwischen mehr als eine Milliarde Gigabyte an Informationen, von denen gerade einmal 0,003 Prozent gedruckt werden. Der Löwenanteil der neu generierten Informationen besteht aus Bildern, Animationen, Filmen, Ton, Grafiken und anderen Multimedia-Daten. Ein Teil davon ist wichtig - auch über den Tag hinaus. "Elektronische Medien sind nicht archivierbar", meinte Clifford Stoll, amerikanischer Astronom und Spezialist für Datenschutz und Computersicherheit, 1996 in seinem Buch "Die Wüste Internet. Geisterfahrten auf der Datenautobahn". Historiker sind nicht die einzigen, denen diese Zukunftsvision nicht gefällt. "Wir dürfen nicht zulassen, dass wir kollektiv vergessen", mahnt Dr. Elisabeth Niggemann, Generaldirektorin der Deutschen Bibliothek. Unserer Gesellschaft drohe der digitale Alzheimer, wenn nicht schleunigst etwas dagegen unternommen werde. Neben der Aufnahme elektronischer Publikationen beginnen Bibliotheken auch damit, Bücher einzuscannen und so einen elektronischen Fundus an älteren Werken aufzubauen. "Retro-Digitalisierung" heißt das Zauberwort, mit dem kostbare Exemplare geschont und zugleich öffentlich zugänglich gemacht werden sollen. Deutschlands erste Digitalisierungscenter in Göttingen und München haben unter anderem eine Gutenberg-Bibel gescannt und die älteste bekannte Handschrift des Talmud digitalisiert.
Andere Interessen verfolgen US-Firmen wie Google und Amazon. Mit groß angelegten Digitalisierungsprojekten haben sie den Massenmarkt im Visier, um ihre Angebote um digitalisierte Werke zu ergänzen. Am ambitioniertesten ist "Google print": Die Suchmaschine wird künftig auch immer mehr Treffer in Büchern landen und einzelne Seiten oder ganze Bücher online zur Verfügung stellen. Google hat bereits mit dem Scannen der Bestände renommierter Universitätsbibliotheken begonnen. In Stanford und Michigan werden alle 15 Millionen Bände digitalisiert, Harvard und die New York Public Library steuern einen Teil ihres Fundus bei. Von diesem Herbst an ist die Bodleian Library in Oxford als erstes Google-Projekt in Europa dran. Verzögert wird das Projekt durch bislang noch nicht ausgeräumte Copyright-Einwände von Verlagen und Autoren. Roboter scannen ganze Bibliotheken Zum Teil lässt Google noch von Hand scannen, der Großteil der Arbeit wird aber Kopier-Robotern überlassen, die selbstständig ganze Bücher durchblättern und kopieren. Bis 2015 dürften die fünf Bibliotheken erfasst sein. Die Daten müssen aber nicht nur sicher gespeichert, sondern auch so aufbereitet werden, dass sie bei Bedarf tatsächlich gefunden werden. Ohne die so genannten Metadaten, die Autor, Verlag, Erscheinungsdatum, Stichworte und andere Informationen enthalten, wäre dies unmöglich. Ein spektakuläres Beispiel dafür, wie schnell der digitale Alzheimer eintreten kann, liefert die NASA: Wenn die Amerikaner 2018 wieder vier Astronauten zum Mond schicken, ist die erste Mondlandung ein hal bes Jahrhundert zuvor einer von vielen weißen Flecken in der Geschichte der Raumfahrt. Unfreiwillig hat die NASA gezeigt, wie viele Möglichkeiten es gibt, digitale Daten ins Nirwana zu schießen. Mitte der 1990er Jahre wurde bemerkt, dass 1,2 Millionen Magnetbänder mit Daten aus 30 Jahren Raumfahrt nicht mehr benutzbar sind - teilweise wegen mangelnder Zuordnung zu den jeweiligen Missionen. Bis zu 20 Prozent der Informationen, die 1976 während der Viking-Mission zum Mars gesammelt wurden, sind weg, weil Speichermedien unlesbar geworden sind. 1979 wurden die von der Raumsonde "Pioneer" vom Saturn übertragenen Daten auf Magnetbänder archiviert. Obwohl die Daten auf vier verschiedenen Datenträgern gespeichert waren, waren sie zwei Jahrzehnte später nicht mehr lesbar - die NASA hatte für keines der Medien mehr die passenden Lesegeräte.
Jetzt haben die NASA und Google eine Zusammenarbeit vereinbart, in deren Rahmen Google der Weltraumbehörde beim Verwalten großer Datenmengen helfen soll. Google errichtet dazu einen neuen Campus auf dem Gelände des NASA-Forschungszentrums in Silicon Valley, der doppelt so groß ist wie Googles Hauptquartier. Oft sind es nicht ausrangierte Geräte, sondern alte Software, aufgrund derer Daten nicht mehr entziffert werden können. Selbst wenn alle Bits auf dem Datenträger noch lesbar sind, erschließt sich der Inhalt nur mit dem passenden Programm - Nullen und Einsen sind da wie Hieroglyphen. Stephen Abrams ist Direktor des Digital Library Programms an der Harvard Universität. Dass er die Journalistenfrage, wie viele verschiedene Datenformate es überhaupt gebe, nicht einmal annäherungsweise beantworten konnte, hat ihn sichtlich gewurmt. In einem Vortrag am folgenden Tag lieferte er Zahlen aus dem Internet: Eine Seite, die sich rühmt, "jedes Format in der Welt" zu haben, listet 3.189 Extentions auf. "Glauben Sie aber nicht, dass das schon alle sind", warnt Stephen Abrams. Neben exotischen Formaten kommen noch verschiedene Versionen desselben Formats hinzu. Allein das PDF-Format existiert in 60 verschiedenen Varianten, die mitunter Inkompatibilitäten zeigen. "Die Industrie ist interessiert daran, dass alte Daten mit neuen Programmversionen nicht mehr lesbar sind", kommentiert Elmar Mittler, Leiter der Göttinger Bibliothek, das Durcheinander, mit dem das Bemühen der Archivare konterkariert werde. In Harvards Archiv liegen 97 Prozent aller elektronischen Dokumente in neun Formaten vor: AIFF, ASCII, GIF, HTML, JPEG, PDF, TIFF, WAVE und XML. 90 weitere Formate bilden die restlichen 3 Prozent. Um ältere Daten zu lesen, werden verschiedene Strategien eingesetzt. Die einfachsten sind Migration, also die Daten in moderne Formate zu überführen, und Emulation, bei der ältere Rechner auf neuen Maschinen simuliert werden. Aufwendiger ist es, ein "Museum" mit Lesegeräten für veraltete Lochkarten, Disketten und Bänder zu unterhalten. Um das Risiko von Datenverlust zu verkleinern, speichert man auf verschiedenen Medien - oft auf Magnetbändern und zusätzlich auf CDs. Als großes Schwarzes Loch entpuppt sich immer wieder das Internet. So verweist die Deutsche Bibliothek auf ihrer Homepage zu Ergebnissen des Projekts "Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit digitaler Resourcen" auf die entsprechende Website - doch der Link führt ins Leere: "Pagina niet gevonden / Page not found" antwortet die Königliche Bibliothek der Niederlande auf den Mausklick.
In der Zukunft könnten Geld und Wissen fehlen "Error 404", die Fehlermeldung für nicht gefundene Seiten, kennt John Kunze nur zu gut. Sein Job an der California Digital Library ist die Archivierung von Webseiten. "Einfacher Text ist das einzige Format, das mit heutigen Computern noch genauso lesbar ist wie es vor 30 Jahren war", stellt Kunze fest. Wahrscheinlich werde es auch in 30 Jahren noch lesbar sein, vielleicht sogar als einziges Format aus der heutigen Zeit. In Kalifornien speichert man daher die Originalseiten, zusätzlich wird aber auch eine Sicherung in ASCII-Format angelegt. Sollten die multimedialen Inhalte eines Tages nicht mehr darstellbar sein, bliebe wenigstens der Text erhalten. Eine weitere Möglichkeit ist, gleich ein Rasterbild der Seiten zu erzeugen. Bessere Darstellungs-Tools als heute werden für die aktuellen Formate nie existieren. Für diese "Datenaustrock-nung". gibt es in Zukunft möglicherweise weder das Geld noch das Wissen, um es nachzuholen. Auf Papier gedruckte Dokumente sind deshalb so dauerhaft, weil sie keine komplizierten Geräte benötigen: Licht reicht zur Betrachtung aus. In Zeiten der digitalen Fotografie hat die CD den Negativstreifen ersetzt. Nach wie vor sind Papierbilder jedoch sehr beliebt. Spätestens wenn die Bilder verblassen oder Abzüge sich verfärben, greifen Fotografen zum Speichermedium, um Ersatz zu drucken. Mitunter gibt es dann ein böses Erwachen: Wenn Papierbilder von der Zeit gezeichnet sind, könnte auch die CD bereits Schaden genommen haben. Sie kann zwar nach Herstellerangaben bis zu 100 Jahre halten, trägt aber möglicherweise schon nach dem Brennen den Keim für eine viel schnellere Zerstörung. Nicht ohne Grund kopieren professionelle Archivare ihre CDs alle fünf Jahre um."
-
Broughton, V.: Essential thesaurus construction (2006)
0.01
0.0075461147 = product of:
0.030184459 = sum of:
0.030184459 = weight(_text_:und in 3924) [ClassicSimilarity], result of:
0.030184459 = score(doc=3924,freq=52.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2498984 = fieldWeight in 3924, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3924)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005)
0.01
0.0075461147 = product of:
0.030184459 = sum of:
0.030184459 = weight(_text_:und in 622) [ClassicSimilarity], result of:
0.030184459 = score(doc=622,freq=52.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.2498984 = fieldWeight in 622, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=622)
0.25 = coord(1/4)
- Abstract
- Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
- Content
- Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
- Footnote
- Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
-
Einführung und Nutzung der Dewey Decimal Classification (DDC) im deutschen Sprachraum : Vorgelegt von der Arbeitsgruppe Klassifikatorische Erschließung im Auftrag der Konferenz für Regelwerksfragen (2000)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 3653) [ClassicSimilarity], result of:
0.029598296 = score(doc=3653,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 3653, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3653)
0.25 = coord(1/4)
-
Chaitin, G.: ¬Die Grenzen der Gewissheit (2006)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4478) [ClassicSimilarity], result of:
0.029598296 = score(doc=4478,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4478, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4478)
0.25 = coord(1/4)
- Abstract
- Konzepte von Komplexität und Zufall zusammen mit Ideen der Informationstheorie führen zu der Erkenntnis, dass es niemals eine Mathematik geben kann, in der sich alles Wahre auch beweisen lässt.
-
Bayer, M.: "New Love" erzeugt Leere in Computer-Herzen : Neuer Virus verbreitet sich seit Freitag - er gilt als listiger und aggressiver als der vermeintliche Liebesbrief "I love you" (2000)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1531) [ClassicSimilarity], result of:
0.029598296 = score(doc=1531,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1531, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1531)
0.25 = coord(1/4)
-
Ganslmayer, K.: Google: Finden, was Google nicht sieht (2006)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 3248) [ClassicSimilarity], result of:
0.029598296 = score(doc=3248,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 3248, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3248)
0.25 = coord(1/4)
- Abstract
- Manchmal schient Google blind: Unbrauchbare und werbefinanzierte Webseiten dominieren das Suchergebnis. schluss damit! So finden Sie schnell sinnvolle Inhalte: Nicht indizierte Seiten aufspüren - Google mit Geheimbefehlen steuern - So entstehen Suchtreffer bei Google
-
Erlhofer, S.: Suchmaschinen-Optimierung für Webentwickler : Grundlagen, Funktionsweisen und Ranking-Optimierung (2005)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4985) [ClassicSimilarity], result of:
0.029598296 = score(doc=4985,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4985, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4985)
0.25 = coord(1/4)
-
Pöppe, C.: ¬Ein großer Brückenschlag in der Algebra (2002)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 385) [ClassicSimilarity], result of:
0.029598296 = score(doc=385,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 385, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=385)
0.25 = coord(1/4)
- Abstract
- Der 35-jährige Mathematiker Laurent Lafforgue hat die nobelpreisähnliche Fields-Medaille 2002 dafür erhalten, dass er einen wesentlichen Teil eines umfangreichen 35 Jahre alten Forschungsprogramm (Beweis der Langlands-Vermutung (Jede L-Reihe eine Körpererweiterung ist auch Reihenentwicklung einer automorphen Funktion und umgekehrt) für Funktionenkörper) erledigt hat
-
Tillett, B.: ¬The FRBR model : Functional Requirements for Bibliographic Records (2002)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1759) [ClassicSimilarity], result of:
0.029598296 = score(doc=1759,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1759, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1759)
0.25 = coord(1/4)
- Abstract
- Überblick über die Ideen und Ziele des FRBR-Ansatzes
-
Funktionelle Anforderungen an bibliografische Datensätze : Abschlussbericht der IFLA Study Group on the Functional Requirements for Bibliographic Records (2006)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 3263) [ClassicSimilarity], result of:
0.029598296 = score(doc=3263,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 3263, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3263)
0.25 = coord(1/4)
- Footnote
- Als pdf unter: http://www.d-nb.de/standardisierung/pdf/frbr_deutsch.pdf und http://www.ifla.org/VII/s13/frbr/frbr-deutsch.pdf.
-
Fryba, M.: Überleben im Web : Die Zukunft der Portale (2001)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 3597) [ClassicSimilarity], result of:
0.029598296 = score(doc=3597,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 3597, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3597)
0.25 = coord(1/4)
- Abstract
- Horizontale Portale sind Publikumsmagneten. Doch der Kampf um die Einnahmen aus der Werbewirtschaft wird zu Übernahmen und Pleiten führen. Umd welcher Surfer will schon Realtimekurse auf einer Erotikseite?
-
Schulzki-Haddouti, C.; Brückner, A.: ¬Die Suche nach dem Sinn : Automatische Inhaltsanalyse nicht nur für Geheimdienste (2001)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4133) [ClassicSimilarity], result of:
0.029598296 = score(doc=4133,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4133)
0.25 = coord(1/4)
- Abstract
- Die Geheimdienste stehen vor einer Informationsflut, die sie mit herkömmlichen Mitteln nicht bewältigen können. Neue Möglichkeiten, die in Software-Projekten unter BND-Beteiligung entstanden, sollen das Defizit beseitigen und beliebig verknüpfte Informationen der analyse zugänglich machen
-
Professionelles Wissensmanagement : Erfahrungen und Visionen (2001)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4179) [ClassicSimilarity], result of:
0.029598296 = score(doc=4179,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4179, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4179)
0.25 = coord(1/4)