Search (11762 results, page 556 of 589)

  • × language_ss:"d"
  1. Pawlak, A.: Durch das Internet mit Links (2002) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.02712805 = score(doc=1558,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 1558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
      0.25 = coord(1/4)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
    Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
  2. Kleinz, T.: Angst vor der zweiten Internetblase : Web 2.0 hat inzwischen das Establishment erreicht / Medienkonzerne investieren Milliardenbeträge (2006) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 303) [ClassicSimilarity], result of:
          0.02712805 = score(doc=303,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 303, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=303)
      0.25 = coord(1/4)
    
    Abstract
    Das US-Magazin Time hat sich in diesem Jahr etwas Besonderes ausgedacht: Statt einen Politiker oder Wissenschaftler zum Jahresende zu würdigen, klebte ein Stück Spiegelfolie auf der Titelseite. Dazu die Überschrift: "Person des Jahres: Du". Damit würdigt das Medium die Millionen von Internetnutzern, die in diesem Jahr die Lust am eigenen Publizieren entdeckt und damit das Internetgeschäft aufgemischt haben. Das Jahr 2006 stand ganz im Zeichen des Internets zum Mitmachen, des so genannten Web 2.0. Eine Vielzahl von neuen Angeboten geben dem Netz eine soziale Dimension: Web 2.0-Angebote sollen von den Nutzern nicht nur konsumiert, sondern auch mitgestaltet werden. Florian Koch vom Branchenverband Bitkom fasst die Entwicklung so zusammen: "Die Grenze zwischen dem privatem PC und dem Internet verwischt. Es entstehen Social Communities, bei denen Nutzer miteinander agieren, sich austauschen, persönliche Dateien ins Web stellen."
    Content
    "Spektakuläre Übernahmen Bekanntester Vertreter der Web 2.0 Communities ist die US-Plattform Espace, die es innerhalb von nur drei Jahren geschafft hat, mehr als 100 Millionen Nutzer zu gewinnen. Die Nutzer berichten hier über ihre persönlichen Vorlieben, stellen Bilder und Videos online. Besonders beliebt ist die Community bei Musikern, die die Plattform entdeckt haben, um ohne Plattenvertrag berühmt zu werden. Allein über die Mund-zu-MundPropaganda in solchen Netzwerken konnten zahlreiche neue Bands ihren Weg zum Publikum finden, berühmtester Vertreter: die Arctic Monkeys. Die Web 2.0-Branche macht in diesem Jahr wieder durch spektakuläre übernahmen von sich reden. So kaufte der Suchmaschinenkonzern Google im Oktober das Video-Portal Youtube für fast 1,7 Milliarden Dollar auf. Konkurrent Yahoo erwirbt viel versprechende Internet-Startups gleich im Dutzend. So hat der Konzern für den Bilderdienst Flickr im Januar 50 Millionen Dollar gezahlt und ihn in sein Portal integriert. Symptomatisch ist auch der Wechsel im Publikumsgeschmack: Stand im vergangenen Jahr noch das Spiel World Of Warcraft im Blickpunkt, genießt nun die Online-Plattform Second Life die gesamte Medienaufmerksamkeit. Auch hier treffen sich virtuelle Charaktere in einer Fantasiewelt. Der Unterschied: Während World Of Warcraft ein althergebrachtes Abenteuer-Spiel mit festen Spielregeln ist, gibt es bei "Second Life" keine Spielhandlung - hier darf jeder selbst bestimmen, was er machen will. Von dem Aussehen der Figuren bis zum Bau eigener Häuser - die Benutzer können hier ihre Kreativität voll ausleben. Das Konzept kommt an: Mitte Dezember konnte Second-Life-Betreiber Linden Labs den zweimillionsten Nutzer feiern. Und auch wirtschaftlich ist das Angebot beeindruckend erfolgreich: Pro Tag werden auf der Plattform eine Million Dollar umgesetzt - die Teilnehmer kaufen dafür virtuelle Kleidung, gehen auf Online-Konzerte und spielen in virtuellen Kasinos.
    Neben den vielen neuen Möglichkeiten des Web 2.0 sorgen in den vergangenen Jahren aber auch die Schattenseiten des sozialen Netzes für Unruhe. Espace fahndet zum Beispiel schon seit einiger Zeit nach Pädophilen, die versuchen über das Angebot in Kontakt mit Kindern zu treten. Auch die Sicherheit der Daten ist nicht immer gewährleistet: Immer wieder machen die sozialen Börsen durch Sicherheitslücken von sich reden, besonders in den USA grassiert der Identitätsdiebstahl. Angesichts der großen Summen befürchten viele schon eine zweite Internetblase, Milliardeninvestitionen könnten sich in Luft auflösen. Der Meinung ist Branchenvertreter Koch nicht: "Das Internet hat mit Web 2.0 definitiv eine neue Entwicklungsstufe erreicht, bei der sich auch die Geschäftsmodelle verändern." Viele etablierte Medien-Konzerne integrieren bereits jetzt Web 2.0-Tech-niken in ihre Angebote. Sie wollen sich von den Newcomern nicht die Butter vom Brot nehmen lassen. So hat sich Pro-Sieben-Sat 1 bei dem deutschen Youtube-Konkurrenten Myvideo eingekauft und bringt die Videos seiner Nutzer sogar in einer eigenen Fernsehshow unter. Konkurrent RTL setzt auf die Eigenentwicklung Clipfish und will im Januar mit einem eigenen Fernsehformat auf Sendung gehen. Nachholbedarf in Deutschland Koch sieht in Deutschland Nachholbedarf: "Die meisten Angebote entstehen in den USA und sind häufig noch auf den amerikanischen beziehungsweise englischsprachigen Markt ausgerichtet." Aber: Auch in der Bundesrepublik seien erste Erfolge zu sehen. So konnte die deutsche Kontakt-Börse Xing im Dezember beim Börsengang immerhin 75 Millionen Euro erlösen. Während viele Web 2.0-Angebote noch in den Anfängen stecken, machen sich zahlreiche Vordenker schon Gedanken über die weitere Entwicklung. Der US-Journalist John Markoff rief in der New York Times vorsichtshalber bereits das "Web 3.0" aus. Wie lange dies auf sich warten lassen wird, steht aber noch in den Sternen."
    Footnote
    DAS WEB 2.0 - Bei aller Euphorie über die neuen Möglichkeiten und die eigene Kreativität: Nutzer von Web 2.0-Angeboten sollten einige Ratschläge befolgen. - Urheberrechte achten: Das Urheberrecht gilt auch hier. Es ist nicht erlaubt, kommerzielle Filme oder Fernsehmitschnitte einzustellen. - Daten sparen: Wer alle persönlichen Daten von sich ins Internet stellt, erlebt oft böse Überraschungen. Deshalb sollte man gut überlegen, welche Informationen man von sich preisgibt. - Rechte sichern: Wer Rechte anderer achtet, sollte auch sich selbst schützen. Ein Blick in die Geschäftsbedingungen ist ratsam, bevor persönliche Videos eingestellt werden.
  3. Klimes, T.: ¬Der Freunde-Verkäufer : Mark Zuckerberg handelt mit Privatdaten - nun umgarnt ihn die globale Werbewirtschaft (2008) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 2307) [ClassicSimilarity], result of:
          0.02712805 = score(doc=2307,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 2307, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2307)
      0.25 = coord(1/4)
    
    Content
    ""I'm CEO . bitch" soll bis vor kurzem noch auf seiner Visitenkarte gestanden haben - "ich bin Geschäftsführer ... du Pisser." Er trägt Adiletten und Schlabberpullis, auch bei wichtigen Geschäftstreffen in Silicon Valley. Mark Zuckerberg, Kopf der Web-Plattform "Facebook", inszeniert sich gern als der Anti-Boss, als das coole College-Kid. "Der aufgeblasene kleine Scheißer hinter dem jüngsten Internet-Phänomen", höhnte das US-Satireblatt The Onion. Jetzt ist die Frotzelei in heftige Kritik umgeschlagen. "Facebook" sei der neue "Big Brother" im Internet, warnt der britische Guardian. Zuckerbergs Konzern werde von Hintermännern gesteuert, die allein an die persönlichen Daten der Nutzer heranwollten - um sie gezielt mit Werbung zu beschicken. Auf Zuckerbergs Visitenkarte steht mittlerweile nur noch "Gründer und Geschäftsführer". Die neuerliche Kritik hat an seiner Wertschätzung durch die Industrie nichts geändert. Der 23-jährige Unternehmer wird heute auf dem Weltwirtschaftsforum in Davos vor Politikern und Unternehmern aus aller Welt reden. Sein Thema: die Zukunft der Werbung. Es gibt gewichtige Gründe für seine Einladung in die Schweiz. Die Internetplattform, die Zuckerberg vor vier Jahren aufbaute, ist zu einem Massentreffpunkt im Netz avanciert. Rund 60 Millionen Mitglieder stellten bislang ihr Profil auf die Seite: persönliche Angaben zu Hobbys, Vorlieben - zu ihrem Leben. Zuckerberg kann diese Daten zu Werbezwecken nutzen - so steht es in den Geschäftsbedingungen. Deshalb reißt sich nun die Industrie um den jungen Gründer. Für sie verspricht "Facebook" nicht neue Freunde, sondern neue Kundschaft - die sie ganz gezielt bewerben kann.
    In vier Jahren zum Milliardär Der wirtschaftliche Wert des Unternehmens wird heute auf 15 Milliarden Dollar geschätzt. Im Oktober kassierte Zuckerberg 240 Millionen Dollar von Microsoft, dem Bill-Gates-Konzern. Für 1,6 Prozent an "Facebook". Die Erfolgsgeschichte von Zuckerberg beginnt, wie viele dieser Geschichten von Computer-Revolutionären beginnen - mit einer Legende. Wie die von Bill Gates, der aus einer Garage heraus die Welt veränderte, indem er das erste Betriebssystem für Computer programmierte. Die Legende von Zuckerberg beginnt im Jahr 2004 in der US-Elite-Universität Harvard. Der Psychologie-Student sitzt in einer Vorlesung, vorne am Pult fordert ein Gastredner die Studenten auf, ihre persönlichen Chancen und Möglichkeiten zu nutzen, zu versuchen, etwas Eigenes zu schaffen. Wenn nötig, sollten sie sich eine Auszeit von der Universität nehmen - er habe das damals schließlich auch gemacht. Er, Bill Gates. Mit 19 Jahren beherzigt Zuckerberg den Rat des Gastredners und bricht sein Studium ab. Theoretisch könne er ja wieder zurück nach Harvard gehen und sein Studium beenden, sagt er. Das hat auch Bill Gates einmal erzählt, auch er war damals 19. Mark Zuckerberg wurde 1984 in Westchester County geboren. Der Vater war Zahnarzt, die Mutter Psychotherapeutin - der Sohn ein Computernarr. 2002 geht er nach Harvard, um Psychologie zu studieren. In seiner Freizeit baut der Student ein Uni-internes Netzwerk auf, über das seine Kommilitonen miteinander kommunizieren können. Es wird ein Riesen-Erfolg. 2004 kommt Gates nach Harvard - und Zuckerberg macht sich mit seiner Idee auf den Weg ins kalifornische Silicon Valley, auf der Suche nach Geldgebern. In Kalifornien trifft Zuckerberg den deutschen Investor Peter Thiel, Gründer des Internet-Bezahldienstes PayPal. Der glaubt an Zuckerbergs Idee und investiert 500000 Dollar. Heute hält Thiel sieben Prozent an "Facebook".
    Nun soll "Facebook" nicht mehr nur der nette Internetmarktplatz sein, auf dem sich Freunde treffen - Zuckerberg will einen neuen Internet-Standard schaffen. Ob E-Mails oder Einkäufe, alles soll über "Facebook" laufen. Dazu machte er im Mai 2007 die Programmcodes des Netzwerks öffentlich. Dutzende Informatiker entwickelten eigene kleine Programme um "Facebook" herum, neue Firmen gründeten sich. Bis heute gibt es über 4000 Zusatzfunktionen für das Netzwerk. Spiele wie etwa "Foodfight", in denen man sich gegenseitig mit digitalen Speisen bewerfen kann. Aber auch Programme zum Handel auf der Auktionsplattform eBay. Zuckerbergs Vision erinnert an eine andere aus den späten 70ern. Auch damals wurde ein Standard gesucht - für die sich verbreitenden Computer. Damals entwickelte Bill Gates "Microsoft Dos". Der Weg zum Standard ist für Mark Zuckerberg auch der Weg zum Geld. Das Konzept hinter den Programmen ist simpel: Wer die kostenlosen Spielereien nutzen will, muss weitere persönliche Daten hinterlassen. Diese Daten sind Zuckerbergs Währung. Protest gegen Späh-Programm Doch vielen Nutzern ging die Expansion von "Facebook" zu weit. Das Programm "Beacon" verfolgte nach, welcher Nutzer welches Produkt im Netz kaufte - und schickte Kaufempfehlungen an alle, die im persönlichen Adressbuch eingetragen waren. Nach Protesten entschuldigte sich Zuckerberg und zog das Programm zurück. Dennoch: Für die großen Wirtschaftsunternehmen gilt er weiter als Visionär. Er hat gezeigt, wie es funktionieren könnte. Der "kleine Scheißer", der immer noch in Adiletten geht, ist in Davos ganz oben angekommen. Neben ihm auf der Gästeliste: Bill Gates."
  4. Scalla, M.: Auf der Phantom-Spur : Georges Didi-Hubermans neues Standardwerk über Aby Warburg (2006) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 54) [ClassicSimilarity], result of:
          0.02712805 = score(doc=54,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 54, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=54)
      0.25 = coord(1/4)
    
    Content
    "Der Bildtheoretiker Georges Didi-Huberman hat sich viel vorgenommen: Er will ein Phantom beschreiben. Wer so etwas beginnt, möchte das flüchtige Wesen am Ende auch zuverlässig dingfest machen. In seiner Studie über den Hamburger Kunstwissenschaftler Aby Warburg leistet Didi-Huberman beeindruckende Rekonstruktionsarbeit - aber am Ende trägt das Phantom den Sieg davon. Didi-Hubermans Buch kann als Standardwerk das bisherige des Warburg-Schülers Erwin Panofsky ablösen, und doch bleibt der einflussreiche Intellektuelle Warburg schwer zu fassen. Warburgs zentrale Begriffe, wie "bewegtes Beiwerk" oder "Pathosformel", wurden in den vergangenen Jahrzehnten häufig zitiert, aber wie es so ist, wenn Wörter und Termini inflationär gebraucht werden, verflüchtigt sich bald der Gehalt - zumal im Falle Warburgs wenig Hemmnisse in Form stabiler Rezeptionsmuster, Werkausgaben oder einer gesicherten Tradierung seiner Grundthesen vorliegen. Immerhin gibt es mittlerweile einen Band mit Warburgs Schriften, der zwar nicht alles, aber das meiste Wichtige enthält (Suhrkamp Verlag). Darüber hinaus besteht Warburgs Werk nach wie vor aus Manuskripten, Notaten, Entwürfen, Essays sowie einem "Mnemosyne"-Atlas mit etwa 1500 Fotografien von Bildern unklarer Anordnung - ein riesiges Archiv für die Nachwelt, die sich einen ganz eigenen Reim auf die jeweiligen Trouvaillen machen kann.
    Didi-Huberman liefert eine grundsolide Rekonstruktion von Warburgs Methode der Bildanalyse. Er erklärt, warum dessen kunsttheoretische Arbeiten zur Florentiner Renaissance bereits bei ihrem Erscheinen seit Ende des 19. Jahrhunderts als bahnbrechend galten: Sie erweiterten die Grenzen des Fachs Kunstgeschichte durch eine kulturhistorische Perspektive, als noch tout le monde sich auf eine rein ästhetische Einflusshistorie kaprizierte. Ohne weiteres wird klar, warum Warburg (1866-1929) in den 1990er Jahren, als eine neue Bildwissenschaft und ihr "iconic turn" vollends die Fachgrenzen in Frage stellten und der neumedialen Bildproduktion mit kunsthistorischer Qualifikation zu Leibe rückten, zum Fixstern aufstieg. Walter Benjamin entdeckte in der Welt der Pariser Passagen eine Erscheinung, anhand deren er eine Gesellschaftstheorie wie eine Geschichtsphilosophie entfalten konnte. Aby Warburg versenkte sich in das "bewegte Beiwerk", den Faltenwurf von Gewändern oder die von Windstößen aufgewühlten Haare in den Bildern der frühen Florentiner Renaissance, vor allem in Botticellis "Geburt der Venus" und "Frühling". Didi-Huberman weist detailliert nach, wie Warburg darin zunächst ein konkretes "Nachleben der Antike" in der Renaissance entschlüsselt. Das allein wäre nicht sonderlich überraschend. Den Zeitgenossen müsste jedoch die Einsicht missfallen haben, dass ihre Vorstellung vom Renaissance-Menschen als säkularem, rationalem homo faber nur eine Projektion der eigenen Epoche war.
    Warburg mokiert sich über den Reisetypus des "Übermenschen in den Osterferien, mit Zarathustra in der Tasche seines Lodenmantels". Wo ein Nietzscheaner vermutet wurde, residierte ein braver Florentiner Bürger, der in seiner Kapelle zu Gott betete und sich die Glaubensstätte durch qualifizierte Malfachkräfte ausschmücken ließ. Der Autor rekapituliert philologisch die Begriffe, auf die sich Warburgs Denken fokussieren lässt: Nachleben, Dynamogramm, Einfühlung, Pathosformel. Das Phantom gewinnt Konturen. Der Begriff Nachleben etwa bezeichnet hier eben nicht nur ein Bildmotiv, eine Geste, die früher schon einmal da war, eine Zeit lang verschwand, und auf einmal in den Kunstwerken wiederkehrt - wie es innerhalb der bürgerlich-linearen, an einem Fortschrittsbegriff orientierten Geschichtsmodelle interpretiert wurde: "Nachleben bedeutet für ihn nichts anderes als eine Erhöhung der Komplexität geschichtlicher Zeit, die Wahrnehmung spezifischer, nichtnatürlicher Zeiten in der Welt der Kultur." Diese Komplexität versucht Didi-Huberman durch Wendungen wie "Verschlingung", "wimmelnder Schlangenhaufen" oder "Dynamographie verschlungener Polaritäten" auszudrücken. Das klingt nach französischem Begriffszauber - auch die notorischen Rhizome arbeiten sich hier wieder durch den Text -, doch durch den Wirbel hindurch gelingt ein erkenntnisfördernder Blick auf ein heute noch faszinierendes Werk. Wenige Kunsthistoriker haben vergleichbar die sinnliche Dimension von Gemälden zu erspüren und erfassen gesucht. Für eine Zeit, die vom menschlichen Körper fasziniert, zuweilen sogar besessen ist, sind Warburgs Texte ein einzigartiger Bezugspunkt. Wenn am Ende dem Phantom Warburg der Sieg über den Interpreten Didi-Huberman gelingt, liegt das am "Bildhintergrund". Der zeithistorische Hintergrund verblasst nämlich in diesem Buch, die Lage des deutschen Bürgertums vor dem Ersten Weltkrieg oder in der jungen Weimarer Republik tritt nur schemenhaft zutage. So bleiben die Konturen unscharf, und das Phantom kann weiter durch die Zeiten geistern."
    Footnote
    Vgl.: http://www.fr-online.de/kultur/literatur/auf-der-phantom-spur/-/1472266/5062826/-/index.html. Besprechungsaufsatz zu: Didi-Huberman, Georges: Das Nachleben der Bilder: Kunstgeschichte und Phantomzeit nach Aby Warburg. Frankfurt: Suhrkamp 2010.
  5. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 1331) [ClassicSimilarity], result of:
          0.02712805 = score(doc=1331,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 1331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1331)
      0.25 = coord(1/4)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  6. Theorie, Semantik und Organisation von Wissen : Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization' (2017) 0.01
    0.0067820125 = product of:
      0.02712805 = sum of:
        0.02712805 = weight(_text_:und in 4471) [ClassicSimilarity], result of:
          0.02712805 = score(doc=4471,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.2324706 = fieldWeight in 4471, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4471)
      0.25 = coord(1/4)
    
    Content
    Inhalt: W. Babik, H. P. Ohly, C. Wartena, K. Weber: Theorie, Semantik und Organisation von Wissen. Einige Vorbemerkungen 1. Grundlagen der Wissensorganisation / Foundations of Knowledge Organization I. Dahlberg: Was ist Wissensorganisation? - B. Hjørland: Theories of knowledge organization - Theories of knowledge - M. Kleineberg: Der Elefant und die Blinden. Vorüberlegungen zu einer Organisation epistemischer Kontexte - W. Umstätter: Wissen - Konstrukt oder Rekonstruktion der Popperschen Welt? oder Warum sich die ISKO in International Society for Knowledge Self-Organization umbenennen sollte. - P. Jaenecke: Über die Darstellung einer deduktiven Wissenschaft als Deduktgeflecht - H. Herre, H. Benking: Formal Ontology and Principles and Prospects of Knowledge Organisation: An Axiomatic Approach 2. Wissensgewinnung / Knowledge Extraction I. Blümel: Wissen über 3D-Modelle organisieren Herausforderungen für Digitale Bibliotheken - J.-C. Lamirel: Unsupervised Multi-View Data Analysis Methods for Text - K. Schmidt, Peter Mandl, Michael Weber: Informationsverwaltung als selbst-organisierendes und kontext-basiertes System - K. U. Schulz, Levin Brunner: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze - A. O. Kempf: Neue Verfahrenswege der Wissensorganisation. Eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation - A. Böhm, C. Seifert, J. Schlötterer, M. Granitzer: Identifying Tweets from the Economic Domain
    3. Verarbeitung natürlicher Sprache / Natural Language Processing K. Eichler, A. Gabryszak: Evaluating text representations for the categorization of German customer emails - Á. Castellanos, A. García-Serrano, J. Cigarrán, E. W. De Luca: Improving the Knowledge Organization of Linguistic Resources - P. M. Fischer: Eine Datenbasis zur Beobachtung des Schreibgebrauchs im Deutschen - S. Otra, N. Singh, J. Jha: Towards Building a Lexical Ontology Resource Based on Intrinsic Senses of Words 4. Semantisches Netz / Semantic Web L. Wenige: The application of Linked Data resources for Library Recommender Systems - N. Kushwaha, O P Vyas: SemMovieRec: Extraction of Semantic Features of DBpedia for Recommender System - C. H. Marcondes: Representing and organizing scientific knowledge in biomedical articles with Semantic Web technologies - E. W. De Luca: Using Multilingual Lexical Resources for Extending the Linked Data Cloud - S. Grabsch, M. Jürgens: Der Digitale Wissensspeicher der Berlin-Brandenburgischen Akademie der Wissenschaften: Möglichkeiten und Herausforderungen der Verknüpfung heterogener geisteswissenschaftlicher Inhalte und Metadaten - L.-L. Stahn: Vocabulary Alignment für archäologische KOS
    5. Verschlagwortung / Indexing J. Ahuja: Understanding the past and present of Knowledge Organization to create the futuristic KO tools - M. Frické: Logic and Librarianship - E. Scheven: Die neue Thesaurusnorm ISO 25964 und die GND - W. Babik: Keywords as Linguistic Tools in Information and Knowledge Organization - J. Szulc: Document Management in the the Polish Central Catalogues 6. Wissensökonomie / Economics of Knowledge H. P. Ohly: Organization, Management and Engineering of Knowledge - W. Babik: The Internet as the Present-Day Agora of Information and Knowledge - D. Pietruch-Reizes: Transfer of knowledge and new technologies from science to the economy - M. Jabloun, Y. Sayeb, H. Ben Ghezala: From EA to Actor Model: Knowledge in the service of IS Reform
  7. Lehmann, H.: Letzte Chance! Jetzt kopieren! : Das bringt die neue Rechtslage (2002) 0.01
    0.0066871545 = product of:
      0.026748618 = sum of:
        0.026748618 = weight(_text_:und in 2159) [ClassicSimilarity], result of:
          0.026748618 = score(doc=2159,freq=28.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22921911 = fieldWeight in 2159, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2159)
      0.25 = coord(1/4)
    
    Content
    "Am 22.6.2001 trat, von vielen kaum wahrgenommen, die für die digitale Welt einschneidende EU-Richtlinie 2001/29/EG über die "Urheberrechte in der Informationsgesellschaft" in Kraft. Diese Richtlinie muss von allen EU-Staaten bis zum 22.12.2002 in nationales Recht umgesetzt werden. Ist das geschehen, steht die Privatkopie wahrscheinlich vor dem Aus. Denn diese Richtlinie verlangt im Artikel 6, dass die Mitgliedsstaaten einen ange messenen Rechtsschutz schaffen, der ein Umgehen von wirksamen technischen Maßnahmen verhindert und unter Strafe stellt. Unter wirksamen technischen Maßnahmen ist, einfach ausgedrückt, der Kopierschutz auf digitalen Datenträgern zu verstehen, der dann weder umgangen noch beseitigt werden darf. Was ist aber mit der bisher für den privaten Gebrauch zugelassenen Privatkopie von Software oder MusikCDs? Zwar gibt es kopiergeschützte Datenträger bereits längere Zeit, doch findige Tüftler und Programmierer heizten durch Kopierprogramme wie beispielsweise "CIoneCD" oder den simplen Filzstift-Trick das Wettrüsten an der digitalen Verschlüsselungsfront immer wieder an; sehr zum verständlichen Leidwesen der Urheberrechteverwalter und der Urheberrechteeigentümer. Jeder neue Kopierschutz erwies sich nach einiger Zeit als Makulatur. Eine Privatkopie ließ - sich erstellen. Alte Rechtslage Bisher war es durchaus legal, von rechtmäßig erworbenen Musik-CDs oder von nicht durch Lizenzbestimmungen geschützer Software eine für den Privatgebrauch bestimmte Kopie anzufertigen. Grundlage für diese Regelung war bis heute § 53 I UrhG. Diese Regelung wurde damit begründet, dass der Urheber in den betreffenden Bereichen kaum Kontrollmöglichkeiten von Privatkopien besitzt und man den privaten Bereich von einer Überwachung freihalten wollte. Die Kopie war ja nicht ganz umsonst, wie oft behauptet wird. In §§ 54 ff UrhG wird die so genannte Urheberabgabe bestimmt, die beispielsweise von der Verwertungsgesellschaften wie die GEMA von Herstellern und Importeuren auf Geräte und Medien erhoben wird. Diese musste dann letztendlich der Käufer und Benutzer beim Erwerb von diesen Produkten bezahlen. Sie brauchten also bei Kopien nach dem oben genannten Paragraphen kein schlechtes Gewissen haben. In der bisherigen Rechtssprechung war man der Auffassung, dass jeder zu einer Kopie berechtigt ist, der rechtmäßig in den Besitz eines Werkstücks gelangt ist. Auch die rechtmäßig erworbene CD eines Freundes konnten Sie für den privaten Gebrauch kopieren. Selbst Dritte konnten unentgeltlich Kopien anfertigen, wenn Sie selbst nicht hardwaretechnisch dazu in der Lage waren. Über die Anzahl von Kopien einer Musik-CD für den privaten Gebrauch gab es keine generellen Festlegungen. Maßgeblich ist das Erfordernis für den persönlichen Gebrauch. Bei der privaten Nutzung sind sicher mehr als zwei oder drei Kopien von Musik-CDs schwer zu rechtfertigen. Übrigens: Kopien von bereits kopierten CDs sind immer strafbar und nicht erlaubt. Daneben mussten bei bestimmter Software die Lizenzbestimmungen beachtet werden. Außerdem gilt das Verbot aus § 53 VI UrhG: "Die Verfielfälti- - gungsstücke dürfen weder verbreitet noch zu öffentlichen Wiedergaben benutzt werden." - Geplante Maßnahmen - Was wird sich in Zukunft ändern? Die neue EURichtlinie verbietet es, Kopierschutzmaßnahmen und ähnliche Mechanismen zu umgehen. Dabei spielt es keine Rolle mehr, ob der Zugriff auf ein geschütztes Werk legal oder illegal ist. Geschützt ist danach die technische Maßnahme, die im normalen Betrieb dazu bestimmt ist, ein geschütztes Werk vor nicht von den Urhebern genehmigten Handlungen zu bewahren. Was ist jedoch eine wirksame technische Maßnahme? Wo liegt die Messlatte zwischen Schutzsystemen, die mit relativ einfachen Mitteln zu umgehen sind und Maßnahmen, die nur mit erheblichen Aufwand zu knacken sind? Zur Zeit wird in den Ausschüssen noch über klare Rechtsvorschriften diskutiert. Zum Thema finden Sie in diesem Artikel ein Statement der Elaborate Bytes AG und einen Kasten mit interessanten Rechtsaspekten unseres Anwalts Christian Czirnich. - Knacken bis nichts mehr geht -
    In den Artikeln der folgenden Seiten bieten wir Ihnen noch einmal alles, was das Kopiererherz begehrt. Im Workshop ab Seite 40 erklären wir, wie Sie Programm- und Musik-CDs mit dem Programm CIoneCD ohne Probleme kopieren. Damit Sie gleich Ioslegen können, haben wir das Programm CIoneCD auf unserer CD1 unter "Kopiertools" für Sie bereitgestellt. Mit dieser DemoVersion können Sie 21 Tage arbeiten. Wir zeigen Ihnen Schritt für Schritt, wie Sie zum optimalen Kopierergebnis gelangen. Beim Kopieren wird in einschlägigen Kopier- oder Brennprogrammen oft mit Abkürzungen oder Fachbegriffen gearbeitet. Da ist oft von Macrovision, Rippen oder Disc-at-Once die Rede. Im "Einmaleins der Knack-Profis" im Kasten rechts finden Sie wichtige Begriffe und Abkürzungen zum Kopieren erklärt. Was für die CD gilt ist ebenso kein Problem bei einer DVD. In unserem DVD-Workshop ab Seite 44 zeigen wir Ihnen, wie Sie eine gekaufte DVD auf die Festplatte kopieren. Ist der Film erst einmal auf der Festplatte, ist es möglich, den Kopierschutz zu umgehen sowie Ländercods auszuschalten. Danach sind es wenige Schritte, um den Film auf eine oder mehrere CD-Rohlinge brennen. Wir verraten Ihnen im Workshop außerdem wichtige Internet-Adressen, von denen Sie sich die Tools zum Workshop herunterladen können. Die Links finden Sie im Text in blauer Farbe gedruckt. Wenn Sie den Workshop nachvollziehen wollen, ist es ratsam, sich zuvor die benötigten Tools aus dem Netz zu holen. Bleibt noch ein Problem: Oft befinden sich vertrauliche oder persönliche Daten auf dem PC oder es ist notwendig bestimmte Tabellen oder Excel-Zellen vor unbefugtem Zugriff zu schützen. MS Office bietet dafür die Möglichkeit, solche relevanten Daten mit Passwörtern zu schützen. Oft bleiben Dateien lange Zeit ungenutzt. Was können Sie tun, wenn Sie ein persönliches Passwort einer Excel-, Word- oder ZIP-Datei vergessen oder verlegt haben? Die PCgo hilft bei der Wiederherstellung der persönlichen Passwörter ab Seite 46. Beachten Sie aber unbedingt, dass es nur erlaubt ist, eigene Dateipasswörter wieder herzustellen. Sie machen sich strafbar, wenn Sie Passwörter von fremden Dateien aktivieren. Also, kopieren Sie, solange die alte Rechtslage noch gilt. Die Umsetzung der EU-Richtlinie wird zur Zeit in diversen Ausschüssen vorbereitet und ist in Deutschland noch nicht rechtskräftig. Aber spätestens zur Jahreswende kann schon ein anderer Wind wehen. Wir halten Sie in jeder Hinsicht auf dem Laufenden.
  8. Brown, L.: Google auf zwei Beinen (2005) 0.01
    0.0066871545 = product of:
      0.026748618 = sum of:
        0.026748618 = weight(_text_:und in 4367) [ClassicSimilarity], result of:
          0.026748618 = score(doc=4367,freq=28.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22921911 = fieldWeight in 4367, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4367)
      0.25 = coord(1/4)
    
    Content
    "Die Fußballer sind im Toilettenschrank. Den habe sie extra bauen lassen, sagt Edda Tasiemka, Kopf in den Nacken, Füße auf Zehenspitzen, Armenach oben gestreckt, um dem Besuch zu zeigen, was sich in dem schmalen, weiß gestrichenen Kabinett unter der Decke des schmalen Raumes verbirgt. Wie eine Klavierspielerin lässt sie ihre Finger über eine Tastatur aus Ordnerrücken laufen: Pele, Robson, Rooney, Ronaldo. Alle Fußballer sorgfältig alphabetisch aneinander gereiht, nur Maradona, der liegt quer. Ordnung müsse man, haben, sonst sei man verloren, sagt Tasiemka später im Wohnzimmer, wie ein Storch über ein Meer aus vergilbten Zeitungsausschnitten stolzierend. Im Flur bilden Zeitungstürme bizarre Berglandschaften, an der Treppe droht eine Papierlawine. In der Küche stapeln sich neben einem Brotlaib verblasste Papierordner, auf denen in schwarzem Filzstift "Embryos" und "Bulimie" stehen. Noch ist es ruhig im Haus, später wird das Telefon keine Ruhe geben: Zu ihren Kunden gehören bekannte Biografen wie Michael Crick, aber auch Boulevard-Blätter wie der Daily Express. Anrufe bei einer 82-jährigen Deutschen auf der Suche nach Informationen, die selbst für große Verlagsund Zeitungshäuser nicht mehr zu finden sind, außer vielleicht in einer unauffälligen Doppelhaushälfte im Londoner Stadtteil Golders Green: "Worüber wollen Sie etwas wissen?", fragt sie und zieht energisch die Schubladen einer antiken Mahagoni-Kommode auf "Amerikanischer Bürgerkrieg? Die Hochzeit Queen Viktorias? Elle MacPherson? Lockerbie?" Chronologisch, alphabetisch, tasiemkisch: Seit 55 Jahren schneidet und sammelt Tasiemka Wissenswertes und Faktenreiches aus Zeitungen und Magazinen und verteilt es - je nach Thema - in ihrem geräumigen Haus. Artikel aus abonnierten oder geschenkten Zeitschriften, Artikel aus auf Flohmärkten aufgestöberten, hundert Jahre alten Originaleditionen, aber auch aus aktuellen Ausgaben der Sun, dem New Yorker oder Paris Match.
    Drei Mitarbeiterinnen helfen mit dem Kopieren und Verschicken von Artikeln; doch nur Tasiemka entscheidet über Ordnung und Aufteilung ihres papierenen Königreichs. Da kann es schon passieren, dass über Bush senior nur ein Ordner zu sehen ist, über Bill Clinton dafür fünf, bei Tasiemka ist in den überfüllten Schränken nicht immer Platz für Objektivität. Ihr eigenwilliges Ordnungssystem aber scheint aufzugehem: In den 80er Jahren, als viele britische Zeitungsarchive durch Protestbewegungen der Gewerkschaften geradezu gelähmt waren, sei das Archiv unentbehrlich gewesen, erinnert sich Lynn Barber vom Observer: Nirgendwo könne man sonst so schnell und' effizient Informationen bekommen. Längst gilt sie unter Journalisten als Geheimtipp, immer hat sie eine Extra-Information pa-. rat. Tasiemka, so der Königshausexperte Robert Lacey, sei eine Suchmaschine lange bevor Google erfunden wurde: ein Kompliment, dass ihr nichts sagen wird, da sie das Internet noch nie benutzt hat. Wenn sie läuft,' wippt Edda Tasiemka, leicht auf den Zehenspitzen, die geliebten' schwarzen Strumpfhosen hat sie an diesem Tag gegen dunkelblaue eingetauscht. Beine einer Balletttänzerin, Augen, die alles sehen, weiß-graue Haare im einfallenden Sonnenlicht fast transparent. "Hinter den Hogarths sind die Gurkhas": Unter ihren Hän den werden Wände zu verschiebbaren Schranktüren, MahagoniKommoden zu Museumsvitrinen, in denen Originalartikel über den Tod Abraham Lincolns berichten oder über die Hochzeit Queen Viktorias. Nichts ist im Haus wie es zu sein scheint, am wenigsten aber seine Besitzerin. Neben der Archivpflege hat sie selbst viele Jahre als Journalistin gearbeitet, für die Bravo hat sie die Beatles und Jimi Hendrix interviewt. Unter dem Dach stehen die neuen "Abteilungen": Internet, Straßenkriminalität. Derartiges gab es damals nicht, sagt Tasiemka über ihre Jugend, dafür einen richtigen Krieg. Tasiemkas Eltern waren unverheiratet, ihr Vater war Kommunist. Ihre Mutter wurde 1938 verhaftet, da war sie gerade 15: Eine vernünftige Schulausbildung gab es nicht, sagt sie, ihre Eltern "waren zu links". 1949 lernte sie ihren Mann in Hamburg kennen, ein jüdischer Journalist, der nach Jahren auf der Flucht als Übersetzer beim Kriegsverbrechertribunal arbeitete: "Schon als ich ihn zum ersten Mal traf, waren seine Hosentaschen voller Zeitungsausschnitte". Zusammen zogen sie nach London, in ihrer Einzimmerwohnung lag eine erste Kiste mit Artikeln unter dem Bett. Sie ließ sich von seiner Faszination für Geschichten anstecken: Viele Wochenenden verbrachten die Tasiemkas auf Flohmärkten mit der Suche nach alten Zeitschriften. Zu ihren Schätzen gehört eine Sammlung der Belle Epoque Zeitschrift Le Rire mit Illustrationen Toulouse-Lautrecs.
    Nach dem Tod ihres Mannes 1979 taufte Edda Tasiemka ihre gemeinsame Artikelsammlung das "Hans Tasiemka Archiv. In einem schmalen, ledergebundenen, roten Buch stehen sie, die Aufträge der vergangenen Woche: Justin Timberlake, David Blunkett, Hugh Grant. Wer wollte über sie etwas wissen und warum jetzt? Ein Dutzend Ausschnitte kostet kostet etwa 35 Pfund, wenn es schnell gehen muss, werden diese auch mal durchgefaxt. Aufgelistet steht steht auch: "Tony Blair und Frauenmagazine". Wenige Tage später wird großes Interview mit dem Premierin der Cosmopolitan erscheinen. Heute vergilben die Zeitungen schon nach drei Wochen, sagt Tasiernka. Wie zum Beweis liegt eine Guardian-Ausgabe auf einem Treppenabsatz, weniger als ein Jahr alt: "Kellys erschreckende Wörter: Irendwann wird man mich tot im Wald auffinden", steht dort vorwurfsvoll in dicken, schwarzen Buchstaben über den britischen Experten für Massenvernichtungswaffen. Wer erinnert sich heute noch daran? Wenige Wochen später wurde aus der skandalumwitterten Schlagzeile traurige Wirklichkeit. Der letzte, den sie mit ins Bett nahm, sei Orlando Bloom gewesen, seufzt Tasiemka, der Ausschnitt liegt noch auf ihrem Nachttisch. Immer wieder passiert es, dass sie ein Thema recherchiert und dabei über interessante Details stolpert, hängen bleibt. Jetzt sucht Tasiemka einen Nachfolger für ihr Archiv. Bei dem Wort "Museum" blitzt Empörung in den dunk len Augen auf; Tasiemka möchte, dass das Archiv weiter betrieben und gepflegt wird. Sie hofft auf eine Universität. An der Tür eine letzte Bitte: Tasiemka hätte gerne ein Belegexemplar. Unter dem Dach stapelt sich ein noch heimatloser Haufen Ordner, auf denen die Namen verschiedener Journalisten stehen."
  9. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.01
    0.0066871545 = product of:
      0.026748618 = sum of:
        0.026748618 = weight(_text_:und in 4576) [ClassicSimilarity], result of:
          0.026748618 = score(doc=4576,freq=28.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22921911 = fieldWeight in 4576, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4576)
      0.25 = coord(1/4)
    
    Abstract
    Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
    Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
  10. Rest, J.: ¬Die Neuvermessung der Welt : Google maps (2012) 0.01
    0.0066871545 = product of:
      0.026748618 = sum of:
        0.026748618 = weight(_text_:und in 1409) [ClassicSimilarity], result of:
          0.026748618 = score(doc=1409,freq=28.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22921911 = fieldWeight in 1409, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1409)
      0.25 = coord(1/4)
    
    Abstract
    Apple verbannt Google Maps von seinem iPhone und setzt auf einen eigenen Kartendienst. Es geht um ein Milliardengeschäft mit Werbung - und viel mehr.
    Content
    "Mit dem neuen iPhone greift Apple seinen schärfsten Konkurrenten Google direkt an: Es ist das erste iPhone, das fast ohne Google-Produkte auskommt - nur die Google-Suche bleibt noch übrig. Der herbste Schlag für den Internetkonzern: die Entfernung von Google Maps. Seit 2007 das erste iPhone auf den Markt kam, war dieser Dienst vorinstalliert. Stattdessen bietet Apple nun mit "Karten" einen eigenen Kartendienst an. Für Google wird das wohl bedeuten, dass die mobilen Zugriffe auf seinen Kartendienst einbrechen- ein Feld, das entscheidend für Googles Umsatz im immer wichtiger werdenden Geschäft mit mobilen Anzeigen sein soll. Mehr als die Hälfte der mobilen Zugriffe auf Google Maps soll von iPhone- und iPad-Nutzern kommen. Ihnen wird Apple nun eigene Anzeigen einblenden können. Doch für Apple ist das nur ein Nebeneffekt. Tatsächlich geht es bei der Entwicklung des eigenen Kartendienstes darum, die Zukunft des iPhones zu sichern, Apples wichtigster Einkommensquelle. Denn digitale Kartentechnologie ist die entscheidende Schnittstelle zwischen virtuellem Raum und realer Welt. "Ortsbasierte Dienstleistungen", sagt Analystin Annette Zimmermann vom führenden IT-Marktforschungsinstitut Gartner, "sind zu wichtig als dass Apple sich dabei auf die Karten des unmittelbaren Konkurrenten Google als Basis verlassen könnte." Nur indem unzählige lokale Daten verknüpft und auf den Standort und die Anfragen des Nutzers bezogen werden, kann ein Smartphone zu dem allumfassenden Alltagsassistenten werden wie es Apple beim iPhone mit seiner Software Siri vorschwebt: etwa warnen, dass der Nutzer früher zu einem Meeting aufbrechen muss, da sich ein Stau gebildet hat oder ein Bus ausfällt. Siri-Konkurrent Google Now kann auf Android-Smartphones solche Aufgaben bereits erledigen. Die bessere digitale Abbildung und das vollkommenere Verständnis der physischen Begebenheiten wird so zu einem Schlüsselkriterium dafür, welche Smartphones den Markt künftig dominieren werden.
    Kartografen-Armee bei Google Google setzt daher eine ganze Armee von Spezialisten auf die Entwicklung seiner Karten an. Branchenberichten zufolge arbeiten mehr als tausend Google-Vollzeitkräfte an den Kartendienstleistungen, hinzu kommen noch rund 6 000 Arbeitskräfte von externen Firmen. Apple müsste seine Beschäftigtenzahl um mehr als die Hälfte erhöhen, um eine vergleichbare Abteilung aufzubauen. Für die Karten-App setzt Apple stattdessen auf die Dienstleistung von anderen Unternehmen. Wichtigster Kartenlieferant ist Tomtom. Das holländische Navigationsunternehmen ist neben Google und der von Nokia übernommenen US-Firma Navteq einer der drei globalen Kartenmonopolisten - und der letzte, der bis zu dem Apple-Deal nicht eng mit einem der drei dominierenden Smartphone-Betriebssysteme verbunden war. Die Nokia-Geodatenfirma Navteq, an der Apple ebenfalls interessiert gewesen sein soll, liefert bereits an Windows Phone, das Smartphone-Betriebssystem von Microsoft. Bei Tomtom sind mehr als tausend Mitarbeiter damit beschäftigt, die Karten zu pflegen. Zwar basiert ihre Tätigkeit auf den Milliarden Datensätzen, darunter Bewegungsprofile der Navigatoren-Nutzer oder Fehlerhinweise, die diese manuell übermitteln. Doch Georg Fisch, der die Tomtom-Abteilung für das Kartenmaterial in Nord- und Zentraleuropa leitet, sagt: "Zur Interpretation der Daten sind Menschen unersetzlich". Mehr als 70 Angestellte sind allein damit beschäftigt, die Karten für Deutschland aktuell zu halten. Sie prüfen etwa die rund 15 000 Hinweise, die von Nutzern über geänderte Straßenführungen oder Straßennamen eingehen. Zwei Drittel müssen die Mitarbeiter aussortieren - auch schon mal, weil Anwohner ihre Straße als gesperrt melden, nur um den Durchgangsverkehr zu verringern.
    Zur Überprüfung solcher Angaben wertet Fischs Abteilung Bewegungsdaten aus, die von den Navigatoren automatisiert übermittelt werden. "Fahren etwa mehr als 97 Prozent der Wagen in eine Richtung", sagt Fisch, "kann man sicher sein, dass es sich um eine Einbahnstraße handelt." Zudem nutzt Tomtom die Bilder, die von Kameraabfahrten der wichtigen Verkehrslinien erzeugt werden. Fahrspurangaben auf Autobahnkreuzen oder Straßenschilder werden mit einem Programm ausgelesen. Tomtom-Mitarbeitern geben die gewonnen Informationen dann in die Navigationsdatenbank ein. Google erstellt auf ähnliche Weise seine eigenen Karten, seit der Konzern nach einem Experiment mit eingekauftem Material 2008 zu der Überzeugung gekommen ist, dass es nur auf diese Weise möglich sei, solche umfassenden und exakten Karten zu erschaffen, die der Konzern für die Entwicklung seiner ortsbezogenen Dienste benötigt. Google häuft dabei nur ungleich größere Datenmengen an als andere Unternehmen. Zentraler Baustein des von Google intern "Ground Truth" getauften Projektes ist Street View, das wahnwitzig anmutende Vorhaben, alle befahrbaren Straßen abzufotografieren - inzwischen selbst alpines Gelände mit Schneemobilen. Bis heute hat Google über acht Millionen Kilometer abgefilmt, eine Länge, die einer mehr als zweihundertfachen Erdumrundung entspricht. Die dabei eingesammelten 21,5 Milliarden Megabyte Bildmaterial werden von Google nicht nur nach Schildern und Fahrbahnmarkierungen durchsucht, sondern auch nach Hausnummern oder Firmenlogos. Auch vor den Toren von öffentlichen Gebäuden macht Google dabei längst nicht mehr halt: Mit schiebbaren Kameras werden etwa Museen von innen kartographiert. Die Integration von immer mehr Daten führt dazu, dass Google Maps inzwischen - zumindest in den USA - ebenso durch Ikea-Filialen und Shopping-Malls navigieren kann wie durch Flughäfen.
    Nutzer bezahlen mit Daten Solche Navigationsangebote innerhalb von Gebäudekomplexen werden für mobile Werbung an Bedeutung gewinnen, sagt Gartner-Analystin Zimmermann. "Navigiert ein Nutzer etwa durch ein Shopping-Center, können ihm Händler direkt Coupons mit Sonderangeboten auf das Smartphone schicken". Der Markt solcher ortsbasierter Werbung soll in den nächsten Jahren rasant anwachsen: Zehn Milliarden US-Dollar sollen nach Prognosen von Strategy Analytics schon in vier Jahren umgesetzt werden. Damit das passiert, müssen die Nutzer aber überzeugt werden, ihre Ortsdaten preiszugeben. Gartner-Analystin Zimmermann sagt: "Nutzer schieben ihre Bedenken schnell beiseite, sobald sie glauben, von der Preisgabe ihrer Ortsdaten zu profitieren." Ihren immer intelligenteren mobilen Assistenten werden Nutzer so mit ihren eigenen Daten bezahlen - und das umso bereitwilliger, desto perfekter diese die physische Umgebung verstehen können."
  11. Ermert, M.: Wer hat, dem wird gegeben : Von wegen Mitbestimmung: Nur noch Industrie und Domain-Inhaber sollen die Direktoren der Internet-Verwaltung Icann wählen dürfen (2001) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 890) [ClassicSimilarity], result of:
          0.026479783 = score(doc=890,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 890, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=890)
      0.25 = coord(1/4)
    
    Content
    "So schwierig hat sich der ehemalige schwedische Ministerpräsident Carl Bildt das nicht vorgestellt, als er im letzten Jahr um seinen Rat bei der Reform der Internet Corporation for Assigned Names and Numbers (Icann) gebeten wurde. Aber bei der Jahrestagung der Organisation, die für die Standards im Netz zuständig ist, musste der Politiker eine Menge Kritik einstecken - für seine Empfehlungen, künftig nur noch den Inhabern von Domains ein Wahlrecht für ein Drittel der Sitze im Icann-Direktorium zuzugestehen. Ein Politikum, denn im vergangenen Jahr durften noch alle, die eine E-Mail-und eine Post-Adresse besaßen, bei der ersten weltweiten Online-Wahl fünf Direktoren in den 19-köpfigen Vorstand entsenden. Besonders in Europa und einigen asiatischen Ländern sorgte das für Aufsehen. Das Netz - oft als anarchischer Raum gescholten - präsentierte sich' als Muster für demokratische Mitbestimmung. 140 000 Nutzer weltweit hatten sich dafür registrieren lassen. Auch wenn Icann selbst die Wahl als Erfolg bejubelte, war schon vorher klar, dass der Wahlmodus nach der ersten Runde überprüft werden müsse. ;,Wir wollten nie eine Demokratie sein", beteuerte lcanns Politikstratege, Andrew McLaughlin. Bildt, die Ex.Icann-Chefin Esther Dyson und ihr Komitee sollten daher grundsätzlich überprüfen, ob eine Mitbestimmung durch Nutzer überhaupt notwen-dig ist. "Was wir vorlegen, ist natürlich ein Kompromiss", sagte der Schwede jetzt bei der Tagung in Marina del Rey, Kalifornien. Er erfülle aber die notwendigen Standards von Fairness, Integrität und Finanzierbarkeit. Denn zum einen war die Authentifizierung der Wähler per Post vor einem Jahr ziemlich teuer. Zum anderen sei eine reine E-Mail-Anmeldung wegen des möglichen Wahlbetrugs derzeit nicht machbar, urteilt Bildts Komitee. Darum sollen nur noch Besitzer von Domains (etwa www.suedeutsche.de) wählen dürfen. Zudem müssen die Wähler selbst für ihre Organisati-on aufkommen, per Mitgliedsbeitrag. "Die Einschränkung des Wahlrechtes ist unakzeptabel", sagt Christopher Chiu von der Bürgerrechtsorganisation American Civil Liberty Union. "Das ist so, als dürften nur Landbesitzer wählen." Chiu steht mit seiner Kritik nicht allein. Gerade in Entwicklungsländern würden. dies beträchtliche Hürden für die Wahl aufbauen. Man wolle immerhin über zusätz-liche Möglichkeiten der Authentifizierung nachdenken, etwa die persönliche Anwesenheit, sagt Esther Dyson. Endgültig vom Tisch aber scheint das Versprechen zu sein, den Nutzern die "Hälfte der Macht" zu geben, mit dem Icann 1998 angetreten war. Auch künftig dürfen sie statt neun nur sechs der 19 Direktoren wählen. Das immerhin will das Bildt-Komitee festschreiben - gegen die Stimmen, die die Mitsprache ablehnen. Andy Müller-Maguhn, gewählter Icann-Direktor für Europa, nannte Bildts Aussagen schlicht "prozeduralen Mist": Mit seinen Kollegen, die die User anderer Kontinente vertreten, hat er jetzt erreicht, dass bis zur endgültigen Abstimmung im kommenden März alles offen bleibt. Aber die Zeit drängt, im nächsten Jahr läuft ihre Amtsperiode ab. Auch die NGO and Academic Icann Study (NAIS), eine Art Alternativgremium zum Bildt-Komitee, hat es eilig. Sie besteht auf die neuen Direktorenposten für die Nutzer, um ein Gegengewicht zu den neun Industrievertretern zu bilden. Unterstützung bekam die Gruppe ausgerechnet vom Vertreter der Europäischen Kommission. Die Regierungen, sagte er, seien durchaus an einer gleichberechtigten Selbstregulierung von Unternehmen und Bürgern interessiert. Ohne diese Balance und allgemeines Wahlrecht verliere das Icann-Modell an Attraktivität, sagt auch Iliya Nickelt vom Virtuellen Ortsverein der SPD. Bei der Wahl vor einem Jahr habe es die "Vision einer Art globaler Demokratie" gegeben. Möglicherweise sei diese Hoffnung "irrational", räumt sie ein, so irrational wie die Mondspaziergänge vor 30 Jahren. Die Astronauten seien dennoch gestartet"
  12. Resenhoeft, T.: Aluminium-Schwindsucht bereitet CDs ein sicheres Ende : Chemische Reaktion macht Datenträger nach 25 bis 100 Jahren unbrauchbar - Keine Warnung der Hersteller (2001) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 1254) [ClassicSimilarity], result of:
          0.026479783 = score(doc=1254,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 1254, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1254)
      0.25 = coord(1/4)
    
    Abstract
    "Milliarden CDs werden langsam, aber unaufhaltsam zerstört. Ihre glänzende Aluminiumschicht wird durch eine chemische Reaktion innerhalb von Jahrzehnten durchsichtig und damit unbrauchbar. Bei Musik-Liebhabern oder Computer-Freaks ist dieser drohende Verlust von Milliardenwerten weitgehend unbekannt. Warnungen der CD-Hersteller fehlen. Die deutsche Musikindustrie hält entsprechende Hinweise wörtlich für "überflüssig". Ein Ersatzanspruch für zerstörte Ton- beziehungsweise Datenträger besteht nicht. Wer seine mit viel Geld und Mühe zusammengestellte Musiksammlung erhalten möchte, muss sie auf ein neues Speicherinedium umkopieren. Die Alternative: alles verlieren oder komplett neu kaufen. Fachleute in den großen Archiven richten sich längst darauf ein, ihre CDs eines Tages zu überspielen. "Rechtlich ist die Lage vollkommen klar", sagt Edda Costello, Rechtsexpertin der Verbraucherzentrale Hamburg. Die gesetzliche Gewährleistung betrage in Deutschland sechs Monate. Diese Zeit gelte für eine Waschmaschine ebenso wie für CDs. Nach Ablauf dieser Frist müssten die Hersteller eine schadhafte CD nicht ersetzen. Auch gebe es keine Rechtspflicht, auf den möglichen Ausfall der Musikträger hinzuweisen, ergänzt sie. Ihrer Ansicht nach sollten Kunden jedoch auf das Problem aufmerksam gemacht werden. Diese verbänden mit der CD einen dauerhaften, verlustfreien Datenstrom. Doch wie lange eine CD wirklich hält, ist umstritten. Die Angaben scheinen mit der Interessenlage zu schwanken - zwischen 25 und 100 Jahren. Henning Hopf, geschäftsführender Leiter des Institutes für organische Chemie der Technischen Universität Braunschweig, schätzt die Haltbarkeit von CDs auf etwa 25 bis 30 Jahre: Das ist ein ernstes Problem." Es entsteht, weil es im Inneren der CD chemische Reaktionen gibt, wie der Ingenieur Rainer Vesper von der Bayer AG in Leverkusen erklärt. Unter der bedruckten Oberseite einer CD kommt eine Schicht aus Klarlack, gefolgt von einer dünnen Schicht aus Aluminium. Unterhalb dieses feinen Metallfilms liegt der durchsichtige Kunststoff Polycarbonat. Darin sind in Form kleiner Vertiefungen die Informationen abgelegt. Ein Laserstrahl tastet die Vertiefungen ab und gibt die Daten wieder. Das Aluminium reflektiert dabei das Licht. Nun können von beiden Seiten einer CD Sauerstoff- und Wassermoleküle ans Metall gelangen. Damit reagiert das Aluminium über Jahre hinweg zur durchsichtigen Verbindung Aluminiumhydroxid. Zwar bleiben dabei die Erhöhungen und Vertiefungen in der Polycarbonat-Schicht erhalten. Der Laserstrahl wird aber nicht mehr vom Aluminium zurückgeworfen, der Datenträger mithin unlesbar. Rafael Ball, Direktor der Zentralbibliothek des Forschungszentrums Jülich, sieht darin kein dringendes Problem. Die CD-ROM ist ein Auslaufmodell. Niemand macht sich mehr Gedanken über deren Langzeithaltbarkeit", sagt er. Der Höhe punkt des Einsatzes von CI)s sei bereits überschritten. Bibliotheken richteten zunehmend Online-Datenbanken auf zentralen Servern ein, sagt er. Vollkommen ungelöst sei hingegen die Frage, wie ein künftiger Großvater seinen Enkeln in 50 Jahren vorspielen wolle, welche Musik er im Jahr 2001 gehört habe. Hartmut Spiesecke, Sprecher des Bundesverbandes der Phonographischen Wirtschaft, meint: CI)s halten ein Leben lang. Kein anderes Speichermedium ist so haltbar und unempfindlich wie die CD." Freilich sei nichts für die Ewigkeit, aber ein solcher Hinweis an unsere Kunden scheint uns überflüssig, weil selbstverständlich". Aus diesem Grund sei ein Umkopieren von CI)s nicht nötig. ,Meine Berufskollegen raten zur Vorsicht', sagt dagegen Ingo Kolasa, Leiter des Deutschen Musikarchivs in Berlin. Dort wird seit 1973 ein Exemplar jeder in Deutschland erscheinenden CD gesammelt. Die internationalen Musikarchive gingen zurzeit davon aus, dass eine CD etwa 50 Jahre halte, sagt er." - Wieder abgedruckt in: Online Mitteilungen 2002, Nr.72, S.15-17.
  13. Dienelt, O.: ¬Ein Workshop über Indexing (2003) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 2502) [ClassicSimilarity], result of:
          0.026479783 = score(doc=2502,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 2502, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2502)
      0.25 = coord(1/4)
    
    Content
    "Unter der Leitung von Frank Merrett von der Socieryy of Indexers (www.indexers.org.uk), die in Sheffield ihren Hauptsitz hat, fand am 22. Januar in London ein Workshop statt, in dem Einblicke in das Indexing (Registererstellung) ermöglicht wurden. SechsTeilnehmerinnen und drei Teilnehmer (Bibliothekare, Katalogisierer, angehende Indexer, Benutzer von Indices) bekamen durch Merrett neben den grundlegenden Dingen auch ein wenig Einblick in die Berufswirklichkeit eines Indexers vermittelt. Zunächst wurden einige Definitionen dessen, was ein Index ist, angesprochen: Ein Index (Register) ist eine systematische Anordnung von Eintragungen, die es dem Benutzer ermöglichen, Informationen in einem Dokument zu finden (nach Norm BS ISO 999,1996). Auch andere Definitionen besagen, dass die im Hauptteil eines Dokuments enthaltenen Informationen so herausgefiltert werden sollen, dass durch die Benutzung des Registers ein möglichst benutzerfreundlicher Zugang zum Hauptteil erfolgen kann. Ein Index soll den einen Benutzer entscheiden lassen, ob ein Dokument etwas für ihn Interessantes enthält. Dem anderen soll es dazu dienen, das Gelesene wieder aufzufrischen. Ein Index muss beiden gerecht werden. Nach Eintreffen des Materials vom Verlag (sehr oft als Papierausdruck) beginnt der erste Schritt, der vom persönlichen Arbeitsstil des Indexers abhängt. Manche beginnen sofort beim Lesen mit dem Niederschreiben von Begriffen, oft unter Verwendung von Software (Macrex, Cindex), andere markieren oder unterstreichen zunächst die relevanten Begriffe. Hier beginnt die eigentliche Arbeit, die darin besteht, wichtige Informationen aus dem Text herauszufiltern und so aufzubereiten, dass ein Buchleser zu Wichtigem hingeführt wird. Dazu gehören Entscheidungen wie zum Beispiel »was ist wichtig«, »was kann/ muss weggelassen werden«, »wo müssen Siehe- beziehungsweise Siehe-auch-Verweise eingebrachtwerden«. Bibliothekarisch gesehen, ist dies Sacherschließung und zugleich formale Erfassung, letztlich das Aufbauen eines Kreuzkatalogs. So wie ein Sacherschließer muss auch ein Indexer ständig überlegen, mit welchen Begriffen er dem Benutzer des Registers einen guten Zugang zur Information verschaffen kann. Ein gutes Verständnis des Faches, das in der Vorlage behandelt wird, ist deshalb unbedingt notwendig. Das wurde anhand einiger Seiten geübt, genauso wie das Aufbe-reiten des Index. Äußerste Genauigkeit ist hier nötig. Anhand eines fertigen Index mit eingebauten Ungenauigkeiten wurde geübt, sehr genau hinzuschauen und kleinste Ungenauigkeiten zu erkennen. Merrett sagte, dass ein gut geschriebenes Buch besser zu bearbeiten sei als eines, das einen weniger guten Hauptteil hat. Oft hat ein Indexer nur zwei Wochen Zeit für die Erstellung eines Registers. Die wenigsten dürften allerdings ständig von morgens bis abends an einem Index arbeiten, und nur sehr wenige verdienen ausschließlich mit dem Erstellen von Registern ihren Lebensunterhalt. Meistens ist dies ein Nebenjob. Nach Frank Merrett sind die Verhandlungen mit einem Verlag über einen zu erstellenden Index recht vorsichtig zu führen. Insbesondere über die Termine (Eintreffen des Manuskripts, Abliefern des Produkts) sowie die Form der Vorlage (welches Format, welcher Umfang) muss sich ein Indexer absichern, um keine Überraschungen zu erleben. So kann es sein, dass die Vorlage nicht als Buch, sondern als ein Stapel von Druckbogen, ungefalzt und unsortiert, ankommt. Auch das Honorar muß vom Indexer in Anbetracht des zu erwartenden Aufwandes verhandelt werden. Indexer ist keine geschützte Bezeichnung, deshalb kann sich jeder so nennen. Die Prüfungen, die man bei der Sociery of Indexers ablegen kann, sind aber ein Qualitätsnachweis. Die Society kann durch das Aufführen der Namen und Spezialgebiete auf der Homepage beziehungsweise in einem Verzeichnis einiges für die Mitglieder tun. Die Sociery legt auf das Kontakthalten mit Verlegern großen Wert, um dort auf die Dienste der Indexer hinzuweisen. Um Aufträge muß sich aber jeder selbst kümmern.
  14. Löw, W.: Wo sind sie die Inseln der Vernunft? : Ein Gedenken an Joseph Weizenbaum (2008) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 2837) [ClassicSimilarity], result of:
          0.026479783 = score(doc=2837,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 2837, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2837)
      0.25 = coord(1/4)
    
    Content
    "Wer Joseph Weizenbaum kannte weiß, dass man ihn - je nach Gusto - zu den Optimisten oder Pessimisten rechnen konnte, weil er ganz einfach das Leben in all seinen Widersprüchen kannte und wusste, es ist nicht "logisch". Aber die Hoffnung, auf "Inseln der Vernunft" ist etwas Bleibendes, das er in seinem letzten Buch mit Gunna Wendt in den Titel hob. In ihm wird als eine Art Interview-Report das Leben des großen Computer-Pioniers nachgezeichnet - oder sollte man besser sagen "reflektiert"? Manche bezeichnen Weizenbaum heute eher als Computer-Dissidenten. Doch er wollte kein "Ausruhen" auf solchen Nischenplätzen. Er suchte nicht Randlagen, sondern die rettenden Inseln der Vernunft in dem Meer aus Belanglosigkeiten der so genannten Informationsgesellschaft. In Würdigung seines Lebenswerkes will ich diese optimistische Perspektive auf Inseln der Vernunft jedoch durch eine Hoffnung erweitern. Es wird sicher noch Einige geben, die sich an die Zeiten des kältesten Kalten Krieges erinnern. Da gab es das Lied vom Insulaner das im Refrain kundtat: ". der Insulaner hofft unbeirrt, dass seine Insel wieder'n schönes Festland wird." Es war eine Art Hymne der West-Berliner geworden, doch spätestens nach dem Mauerbau glaubte man eher Ulbricht. Später dann brachte es Honnecker (1988) auf den Punkt, indem er ankündigte, dass es die Mauer noch in hundert Jahren geben werde. Wer die "Menschheitsbeglücker" des 20. Jahrhunderts kennt, weiß allerdings auch, dass da nicht nur läppische hundert Jahre, sondern auch schon mal Tausendjährige Reiche "versprochen" wurden. Wenn ich Weizenbaums Leben zurückverfolge, liegt gerade darin das Hoffnungszeichen: Er überlebte diese "Paradiese". Sein Lebensweg führte ihn durch viele dunkle Täler. Manchmal konnte er aus politischer Konfrontation Nutzen ziehen, so z.B. weil das US-Militär die EDV-Entwicklung der frühen Jahre mehr als großzügig förderte, denn die Angst vor Stalin (und seinen Nachfolgern) ließ für die Computerexperten das Geld nur so sprudeln.
    Allerdings sind solche Geldsegnungen auch dazu geeignet, "Blütenträume" zu erzeugen, die leicht zu Alpträumen werden und Allmachtsphantasien anderer Art hervorzauberten: Die Schattenseiten der Künstlichen Intelligenz hat Weizenbaum gerade in diesem Arbeitsumfeld kritisiert, wahrscheinlich weil gerade seine Kollegen aus dem MIT, wie Ray Kurzweil oder Marvin Minsky, mit ihren Cyborg-Visionen für Horrorvorstellungen sorgten. Weizenbaum hat besonders dort am MIT - und bis in die Interviews der letzten Zeit - immer wieder an das menschliche Maß erinnert. Immer wieder hatte er in diesen Kampf nicht nur starke Gegner, wie die Erwähnten aus den Nachbarzimmern "seines" MIT, sondern er hatte über alle Kontinente hinweg auch Verbündete, so dass sich das Bild der Inseln der Vernunft anbot. In meinem Grußschreiben zu seinem 85. Geburtstag im Januar 2008 war die Idee vom Insulaner, der eines Tages wieder auf einem Festland leben kann, mein Wunsch für die Zukunft. Diese Hoffnung hat mit den Ereignissen des 20. Jahrhunderts eine historische Perspektive gewonnen. Denn als Weizenbaums Eltern vor genau 72 Jahren Deutschland noch rechtzeitig verließen, war es unvorstellbar, dass Joseph Weizenbaum später Bürger eines neuen Berlins sein würde und er - neben dem Bundesverdienstkreuz - ungezählte Ehrungen und Ehrendoktorwürden sein eigen würde nennen können. Ich bin mir im Klaren, dass so schnell aus Inseln der Vernunft keine Kontinente entstehen werden. Aber die Hoffnung soll bleiben!"
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.3, S.149
  15. Digitale Schnüfler (2008) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 3205) [ClassicSimilarity], result of:
          0.026479783 = score(doc=3205,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 3205, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3205)
      0.25 = coord(1/4)
    
    Abstract
    Festplatten haben in den vergangenen Jahren beachtliche Größen erreicht und ein Ende scheint immer noch nicht absehbar zu sein. Damit ist auf diesen Datenträgern genügend Platz für sehr viele Dateien jedweder Art, die sich im Laufe eines Computerlebens so ansammeln. Die Krux: Wenn es darum geht, inmitten der riesigen Menge an Dateien eine ganz bestimmte zu finden, kann die Suche recht zeitraubend werden. Abhilfe schaffen so genannte Desktop-Suchmaschinen. Diese haben wir uns für Sie genauer angesehen.
    Content
    "Suche ohne Ende Windows hat bekanntlich von Hause aus ein Suchwerkzeug an Bord. Im einfachsten Fall reicht das aus. Wenn sich hingegen mehrere hunderttausend Dateien auf dem Datenträger tummeln, beginnt meist nach dem Start der Suche eine ebenso unfreiwillige wie ausgiebige Kaffeepause. Dateien mit Hilfe der Bordwerkzeuge zu suchen, kann mittlerweile nur noch als Notlösung betrachtet werden. Weitaus effizienter sind spezielle Suchwerkzeuge, die umfassendere Suchfunktionen anbieten und darüber hinaus auch schneller arbeiten. Hierbei handelt es sich um die Desktop-Suchmaschinen. Am Anfang war der Index Das Hauptargument für die Verwendung einer Desktop-Suchmaschine anstelle der Windowsinternen Dateisuche ist die deutlich höhere Suchgeschwindigkeit. Wenn Sie mit der Windows-Suchfunktion nach einer Datei suchen, werden alle Ordner systematisch durchsucht. Das dauert mitunter unerfreulich lang. Auch Suchmaschinen bleibt eine solche Dateisuche nicht erspart. Allerdings bedient man sich hier eines Tricks: Nach der Installation werden zunächst die Festplatten gescannt und alle gefundenen Dateien werden nebst Pfad in einer Datenbank eingetragen. Das ist der so genannte Index. Sobald eine Suche durchgeführt wird, greift die Software nunmehr auf den Index zu, anstatt jedes Mal die Festplatte aufs Neue umzugraben. Das geht wesentlich schneller und gesuchte Dateien sind schnell gefunden. Gleichzeitig werden die Datenträgen ab sofort überwacht und jede Änderung wird im Index nachgetragen. Das lange Warten nach einem Suchergebnis hat somit ein Ende.
    Nicht nur Desktop-Suche Eine Desktop-Suchmaschine ist ein hilfreiches Werkzeug vor allem, wenn sich außer Dateien noch E-Mails rasch finden lassen. Da heutzutage ohne Internet gar nichts mehr geht, liegt es nahe, die Suche auch auf das World Wide Web auszudehnen. Aus diesem Grunde sind diese Tools darüber hinaus auch mit einer Internet-Suchfunktion ausgestattet. Diese Funktion beschränkt sich jedoch in der Regel darauf, dass der standardmäßig genutzte Internet-Browser gestartet wird und die Seite eines Suchdienstes erscheint. Damit handelt es sich um ein kleines Zusatzbonbon, das dem Anwender einige Umwege erspart. Kostenlos, aber nicht umsonst Niemand hat etwas zu verschenken. Auch wenn die meisten Desktop-Suchmaschinen kostenfrei erhältlich sind, verbergen sich oft einige Stolperfallen im Detail. Die vorliegenden Testkandidaten sind zwar keine Spyware-Programme, doch es empfiehlt sich ein kritischer Blick bei der Auswahl des gewünschten Werkzeugs. Einige Produkte bieten neben einer kostenlosen Home-Edition ein kostenpflichtiges Pendant für professionelle Anwender an. Das mag angehen und ist sicherlich kein Problem. Zudem darf davon ausgegangen werden, dass kostenlose Desktop-Suchmaschinen bei weitem nicht so viele Dateiformate unterstützen, wie die kommerziell erhältlichen Varianten. Immerhin sind die Lizenzen, die Hersteller kaufen müssen, um eine umfassende Unerstützung für unterschiedliche Dateiformate anbieten zu können, sehr teuer. Kritisch zu hinterfragen sind jedoch jene Tools, die von werbefinanzierten Anbietern stammen. Hier besteht die Gefahr, dass persönliche Daten der Anwender zum Zweck der statistischen Auswertung des Nutzungsverhaltens gesammelt werden. Wer nichts zu verbergen oder keine Probleme damit hat, kann diese Programme durchaus auch nutzen. Sensible Daten sollten dann aber gesondert geschützt werden."
  16. Beuth, P.: To bing or not to bing : Entdeckungen beim Selbstversuch (2009) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 3872) [ClassicSimilarity], result of:
          0.026479783 = score(doc=3872,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 3872, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3872)
      0.25 = coord(1/4)
    
    Content
    "Ich binge, du bingst, er/sie/es bingt. Bis sich das nicht mehr komisch anhört, wird es wohl noch eine Weile dauern. Aber ein erster Test zeigt: Bingen hat durchaus das Potenzial, ein Verb zu werden. Dazu muss der neue Dienst aber so schnell wie möglich vereinheitlicht werden. Auf Deutsch ist bisher nur eine Beta-Version verfügbar, und die bietet nichts, womit Bing einen Google-User bekehren könnte. Vielversprechender ist die US-Version, aufrufbar über die Ländereinstellung am rechten oberen Bildschirmrand. Sie zeigt, was Bing alles kann. Oberstes Ziel und Prinzip von Microsoft ist offenbar, dem Nutzer nach Eingabe eines Suchbegriffs so viele Filter und Voransichten zu liefern, dass er möglichst beim ersten Klick auf einen Link genau dort landet, wo seine Anfrage auch wirklich beantwortet wird. Suche nach Orten: Wer nach "Frankfurt" sucht, bekommt von Bing eine Trefferliste, die nach Kategorien wie Tourismus, Karten und Restaurants geordnet ist. Neben jedem Link taucht beim "Mouse-Over" ("Drüberfahren" mit der Maus) ein Vorschaufenster mit den ersten Informationen über den Inhalt der jeweiligen Seite auf. Das hilft, wenn aus einem Linktitel in der Trefferliste nicht sofort ersichtlich wird, was sich dahinter verbirgt. Der Kategorisierung fallen allerdings wichtige Verweise zum Opfer, die Google sofort anbietet, etwa Links auf die Uni Frankfurt, die Buchmesse oder die Eintracht. Suche nach Bildern: Auch hier werden für jeden Suchbegriff verschiedene Filter angeboten. Ähnlich wie bei Google kann man etwa nur nach Gesichtern oder Illustrationen suchen. Das Blättern in den Suchergebnissen entfällt dagegen, beim Scrollen lädt Bing einfach immer neue Bilder nach. Ein Klick auf ein Bild führt den Nutzer nicht gleich auf die Zielseite, sondern lädt diese im Bing-Rahmen. So bleibt Platz für die Vorschau auf andere Suchergebnisse. Suche nach Videos: Hier hat Microsoft eine äußerst ansprechende Lösung gefunden. Suchergebnisse werden als Thumbnail, also als Kleinbild angezeigt - und ein einfaches Mouse-Over genügt, damit Auszüge des Videos in dieser Größe abgespielt werden. Das funktioniert als Vorschau so gut, dass als erstes die Pornofans jubelten: Mit Bing sei es wunderbar einfach, eine Sexfilm-Sammlung anzulegen. Dafür muss man nur den voreingestellten Jugendschutzfilter deaktivieren, was mit drei Klicks erledigt ist.
    Suche nach Personen: Beim "Ego-Bingen", also bei der Suche nach dem eigenen Namen, hat die Microsoft-Maschine noch Aufholbedarf. Profile von sozialen Netzwerken wie Xing etwa sind nicht immer unter den Bing-Treffern. Google findet außerdem mehr und relevantere Ergebnisse, sowohl bei weniger bekannten Menschen als auch bei Prominenten, weshalb man bei der Suche nach Personen mit dem Marktführer besser bedient ist. Suche nach News: Noch eine Baustelle, auf der Microsoft tätig werden muss. Die US-Version von Bing zeigt zu deutschen Nachrichtenthemen wie Arcandor nur englische Quellen. Zeitfilter, die Google News anbietet, fehlen ganz. Gar nicht sortierbar sind derzeit die Ergebnisse der deutschen News-Suche bei Bing. Dafür kann man sich wie schon beim Vorgänger Windows Live Search persönliche "Alerts" einrichten, also Benachrichtigungen, die automatisch verschickt werden, wenn es Neuigkeiten zu dem ausgewählten Thema gibt. Suche nach Dokumenten: Die erweiterten Einstellungen von Google ermöglichen es, etwa nur nach PDF-Dokumenten zu suchen. Bei Bing gibt es zwar auch eine erweiterte Suche, die ist aber erst in der Trefferliste der Standardsuche aufrufbar - und sie enthält weniger Filter. Wer die jeweiligen Operatoren kennt, in diesem Fall "filetype:pdf", kann sich allerdings auch von Bing ausschließlich PDF-Dokumente anzeigen lassen."
  17. Wolfangel, E.: ¬Die Grenzen der künstlichen Intelligenz (2016) 0.01
    0.0066199456 = product of:
      0.026479783 = sum of:
        0.026479783 = weight(_text_:und in 107) [ClassicSimilarity], result of:
          0.026479783 = score(doc=107,freq=14.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22691534 = fieldWeight in 107, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=107)
      0.25 = coord(1/4)
    
    Content
    Auch überwachtes Lernen ist kaum zu kontrollieren Dabei führt der Begriff überwachtes Lernen in die Irre: Dieses Lernen ist weit weniger zu kontrollieren, als der Begriff suggeriert. Der Algorithmus entscheidet schließlich auf eigene Faust, welche Kriterien wichtig sind für die Unterscheidung. "Deshalb ist es zentral, dass der Trainingsdatensatz repräsentativ ist für die Art von Daten, die man vorhersagen will", sagt Fred Hamprecht, Professor für Bildverarbeitung an der Universität Heidelberg. Das kann allerdings kniffelig sein. So kursiert in Forscherkreisen das Beispiel eines Systems, das darauf trainiert wurde, Panzer auf Bildern zu erkennen. Der Trainingsdatensatz bestand aus Werbebildern der Herstellerfirmen von Panzern und beliebigen anderen Bildern, auf denen kein Panzer zu sehen war. Aber das System funktionierte in der Anwendung nicht - es erkannte Panzer nicht, sondern filterte stattdessen Bilder heraus, auf denen die Sonne schien. Das Problem war schnell erkannt: Auf den Werbebildern hatte ebenfalls stets die Sonne geschienen. Das Netz hatte das als Kriterium angenommen. "Falls das Beispiel nicht wahr ist, ist es zumindest schön erfunden", sagt Hamprecht. Aber nicht alle Fehler sind so einfach zu finden. "Die Frage ist immer, woher die Daten kommen", sagt Hamprecht. Ein Sensor beispielsweise altert oder verschmutzt, Bilder werden eventuell mit der Zeit dunkler. Wer kein falsches Ergebnis haben möchte, muss diese "Datenalterung" mit einrechnen - und sich ihrer dafür erstmal bewusst sein. Auch ein falsches Ergebnis wird nicht unbedingt so einfach entdeckt: Schließlich entscheiden Algorithmen nicht nur über für Menschen offensichtlich zu erkennende Dinge wie die, ob auf einem Bild ein Panzer ist.
    Neuronale Netze lernen aus Erfahrungen Angesichts immer größerer Computer und wachsender Masse an Trainingsdaten gewinnen bei der Bilderkennung so genannte neuronale Netze immer mehr an Bedeutung. "Sie sind heute die leistungsfähigsten Mustererkennungsverfahren", sagt Hamprecht. Dabei wird die Funktionsweise des menschlichen Gehirns lose nachgeahmt: Die Netze bestehen aus mehreren Lagen mit einer festzulegenden Anzahl an Neuronen, deren Verbindungen sich verstärken oder abschwächen abhängig von den "Erfahrungen", die sie machen. Solche Erfahrungen sind beispielsweise die Trainingsdaten aus dem überwachten Lernen und das Feedback, ob zu einem Trainingsdatum die richtige oder falsche Vorhersage gemacht wurde. Dank der vielen Übungsdaten lassen sich heute sehr viel größere und tiefere Netze trainieren als noch vor einigen Jahren. Während früher ein berühmter Computer-Vision-Datensatz aus 256 Bildern und sein Nachfolger aus 1000 Bildern bestand, gibt es heute Datensätze mit einer Million gelabelter Bilder - also solche, auf denen Menschen markiert haben, was darauf zu sehen ist. Aber die Netze haben auch entscheidende Haken: "Man kann bei neuronalen Netzen schwer nachvollziehen, wie sie zu einer Entscheidung kamen", sagt Hamprecht. Zudem beruhe der Entwurf neuronaler Netze auf einer großen Willkür: Bei der Entscheidung, wie viele Lagen mit wie vielen Neuronen genutzt werden sollten, beruhe vieles auf Bauchgefühl oder auf Ausprobieren. Die Entwickler testen verschiedene Varianten und schauen, wann das beste Ergebnis entsteht. Erklären können sie ihre Entscheidung nicht. "Dieses Rumprobieren gefällt mir nicht", sagt Hamprecht, "ich gehe den Dingen lieber auf den Grund.""
  18. Lenzen, M.: Eine Leipziger Tagung über Kognitionswissenschaft : Traum vom künstlichen Fußballspieler (2001) 0.01
    0.006443904 = product of:
      0.025775615 = sum of:
        0.025775615 = weight(_text_:und in 733) [ClassicSimilarity], result of:
          0.025775615 = score(doc=733,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22088107 = fieldWeight in 733, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=733)
      0.25 = coord(1/4)
    
    Content
    "Auf Kinoleinwänden tummeln sich Roboter, die von Menschen kaum zu unterscheiden sind. Auf den Fußballfeldern der Kognitionsforscher dagegen düsen kleine Wägelchen munter in der Gegend herum und suchen nach dem Ball, stehen sich selbst im Weg und befördern auch mal einen gegnerischen Spieler ins Tor, wenn sie den Ball nicht finden können. Der Weg zur Perfektion ist noch weit. Der Fußballstar ebenso wie der Haushaltsgehilfe, der die Küche aufräumt, sind eher ein Nebenprodukt der Kognitionsforschung. Künstliche kognitive Systeme, sollte es denn je gelingen, sie zu konstruieren, sind aber vor allem deshalb interessant, weil sie einen leichteren Zugang zu kognitiven Phänomenen versprechen als die komplexen Lebewesen. Dies erläuterte Frank Pasemann (Jena) unlängst auf der fünften Fachtagung der Deutschen Gesellschaft für Kognitionswissenschaft in Leipzig. Pasemann beschrieb kognitive Systeme als dynamische Systeme mit oszillierendem, chaotischem Verhalten. Diese dynamischen Eigenschaften sind seiner Ansicht nach die Basis kognitiver Fähigkeiten. Wie diese allerdings entstehen, weiß bislang niemand. Die Ansprüche der Kognitionsforscher haben sich gewandelt. Vom Turing-Test bis zu den Turnieren Deep Blues fand der Wettstreit zwischen Mensch und Rechner auf der Tastatur oder auf dem Schachbrett statt. Inzwischen sind die Ansprüche gewachsen. Allgemeine, verkörperte, situierte Intelligenz ist gefragt: sich in der Welt zurechtfinden, lernen, schnell und flexibel reagieren. In den besten Zeiten des Computermodells des Geistes hoffte man noch, über den Geist sprechen zu können, ohne das Gehirn zu kennen. Inzwischen hat sich ein biologischer Realismus durchgesetzt: Zwar ist nach wie vor von der Informationsverarbeitung im Gehirn die Rede, doch intelligente Systeme baut man inzwischen eher nach dem Vorbild der Natur, als daß man das Gehirn anhand des Computers zu verstehen versuchte. Da ist es mit Programmen allein nicht getan, dazu bedarf es eines Körpers, eines Roboters. Den ultimativen Intelligenztest, schrieb der Kognitionsforscher Rolf Pfeifer vor kurzem, haben die künstlichen Systeme erst bestanden, wenn sie ein Basketballspiel gegen eine menschliche Mannschaft gewinnen. Statt auf Basketball hat sich die Zunft inzwischen auf Fußball spezialisiert. Gewisse Grundprinzipien sind dabei weitgehend unstrittig. Statt bei den Höhenflügen des menschlichen Geistes gilt es bei einfacheren Dingen zu beginnen, bei Orientierung und Bewegungssteuerung etwa. Gibt man einem Roboter einen detaillierten Plan seiner Welt und der von ihm erwarteten Aktionen, wird er sich elegant in der Welt bewegen. Allerdings nur, solange sich die Welt nicht verändert - eine recht unrealistische Annahme. Dem begegnet man am besten mit selbstlernenden Systemen. Rolf Der (Leipzig) führte ein System vor, das mit Hilfe seiner künstlichen Neuronen lernen kann, an einer Wand entlangzufahren oder einen Ball zu schieben. Dazu ist nur die Vorgabe nötig, die Sensorwerte stabil zu halten. Um zu verhindern, daß es diesen Auftrag durch einfaches Stehenbleiben erledigt, gab Michael Herrmann (Göttingen) seinem System noch ein Neugier-Prinzip mit auf den Weg. So entsteht scheinbar zielorientiertes Verhalten, ohne daß dem System ein Weltmodell vorgegeben werden müßte. Bislang ist das menschliche Gehirn jedoch auch den teuersten und besten künstlichen Systemen noch weit überlegen. Ein paar hundert Millisekunden reichen aus, um ein Gesicht als solches zu erfassen, zumeist auch schon, um seine Identität festzustellen. Ähnlich beim Verstehen: Kaum ist ein Satz ausgesprochen, hat man ihn gewöhnlich auch schon verstanden. Das leistet kein Computerprogramm. Nancy Kanwisher (MIT) versuchte mit Hilfe moderner bildgebender Verfahren, kategorienspezifische Regionen im visuellen Kortex zu finden, solche Regionen etwa, die nur für die Wahrnehmung von Gesichtern zuständig wären.
    Dazu zeigten Kanwisher und ihr Team Personen unterschiedliche Dinge: Gesichter, Blumen, Tiere, Landschaften, Stühle und so weiter. Sie beobachteten, ob einige egionen stärker auf bestimmte Reize reagierten als andere. Dabei zeigte sich; daß in, der Tat eine Region in der rechten Hälfte des visuellen Cortex etwa doppelt so stark auf Gesichter anspricht wie auf andere Dinge. Eine weitere Region scheint für Körperteile mit Ausnahme von Gesichtern zuständig zu sein. Andere kategorienspezifische Regionen entdeckten die Forscher nicht, weder bei Dingen, die man für evolutionär relevant halten könnte, beispielsweise Nahrungsmittel oder Raubtiere, noch bei Musikinstrumenten, Möbelstücken. Auch Autos ergaben eine Fehlanzeige, obwohl Kanwisher die Probanden für letzteren Versuch aus den Kreisen begeisterter Autoclub-Mitglieder rekrutierte. Angela Friederici (Leipzig) berichtete von Studien, bei denen Versuchspersonen korrekte Sätze, grammatisch korrekte, aber sinnlose Sätze und grammatisch falsche Sätze präsentiert wurden. Das ereigniskorrelierte Potential ihrer Gehirne zeigte vierhundert Millisekunden nach der Präsentation der sinnlosen, grammatisch aber korrekten Sätze starke Aktivität, bei syntaktisch falschen Sätzen trat die Aktivität dagegen schon nach 160 Millisekunden auf. Friederici interpretierte' dies als Hinweis, daß das Gehirn eingehende Sätze zuerst auf ihre syntaktische Stimmigkeit prüft und dann eine Art Muster des Satzes erstellt. Erst danach kümmert es sich um die Bedeutung. Durch Filterprozesse gelang es auch, rein prosodische Sprache zu erzeugen, bei der die Satzmelodie erhalten blieb, der Inhalt aber verschwand. Gewöhnlich sind prosodische Grenzen auch syntaktische Grenzen, ein Effekt, den Kleinkinder als' Einstieg in die Sprache benutzen. Wird die Satzmelodie manipuliert, zeigt sich, daß das Gehirn einen falsch betonten Satz aber nur kurz für einen ungrammatischeu hält. Nach etwa fünfhundert Millisekunden interagieren Syntax- und Semantikerkennung im menschlichen Gehirn, nach sechshundert Millisekunden erfolgt die erste Reaktion der Versuchsperson. Das Kreuz der Kognitionsforschung liegt darin, daß die menschliche Selbstwahrnehmung für ihre Belange völlig unzureichend ist. A. Knauff (Freiburg) fand etwa heraus, daß, entgegen der verbreiteten Meinung, bildliches Vorstellen beim Schlußfolgern eher hinderlich ist. Bildliches Vorstellen ist eine effektive und viel benutzte Problemlösungsstrategie, das ist empirisch gut abgesichert. Die Lösung abstrakter Probleme gilt als schwieriger als diejenige konkreter Aufgaben, eben weil man sich nichts dabei vorstellen kann. Wie Knauff herausfand, sind ber lediglich räumliche Vorstellungen hilfreich, Über-unter-Relationen etwa, konkrete visuelle Bilder erwiesen sich dagegen als störend. Fragen der Art: "Der Hund ist sauberer als die Katze, der Affe ist schmutziger als die Katze. Ist der Hund sauberer als der Affe?" zu beantworten dauerte deutlich länger als strukturgleiche Fragen über räumliche Zusammenhänge"
  19. Pluta, W.: ¬Das Werk der Wikipedianer (2004) 0.01
    0.006443904 = product of:
      0.025775615 = sum of:
        0.025775615 = weight(_text_:und in 3896) [ClassicSimilarity], result of:
          0.025775615 = score(doc=3896,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22088107 = fieldWeight in 3896, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3896)
      0.25 = coord(1/4)
    
    Content
    "Das Internet ist der größte Wissensspeicher der Menschheit. Hier sind sehr viel mehr Informationen zu finden als in einem Lexikon. Dennoch ist der Griff zum gedruckten Nachschlagewerk immer noch für viele die beliebteste Methode, um Wissen nachzusehen. Denn dort sind Informationen gut strukturiert und leicht zu finden, Wichtiges ist vom Unwichtigen getrennt. Zudem gelten die klassischen Enzyklopädien als Hort der Zuverlässigkeit, was man von vielen der unzähligen Internet-Seiten nicht behaupten kann. Jetzt haben die teuren gedruckten Enzyklopädien Konkurrenz bekommen von einem Online-Lexikon: Das Nachschlagewerk namens Wikipedia steht im Internet kostenlos zur Verfügung. Das Besondere daran: Jeder Nutzer kann bei seinem weiteren Aufbau mitmachen, also neue Texte verfassen und bereits bestehende korrigieren oder ergänzen. Die Mitarbeit ist denkbar einfach: "Jeder, der den Link 'bearbeiten' findet, kann mitmachen", erläutert Wikipedia-Sprecher Arne Klempert. "Wer einen Fehler entdeckt, kann eine Änderung vornehmen, sie speichern - und schon ist die Aktualisierung online." Möglich macht das die Technik, auf der Wikipedia beruht: Ein "wiki" (nach "wiki wiki", dem hawaiianischen Wort für "schnell") ist eine einfach zu bedienende Software, um die Inhalte einer Website zu verwalten und zu bearbeiten. Ursprünglich wurde das Programm als Werkzeug für eine Zusammenarbeit, zum Beispiel von Angestellten verschiedener Niederlassungen eines Unternehmens, über das Internet entwickelt. Über 100 solcher offenen Content Management Systeme gibt es inzwischen.
    Auch bei der Stichwortauswahl unterscheidet sich die Herangehensweise von Wikipedia und gedruckten Lexika grundlegend: Gehen bei den klassischen Nachschlagewerken Redakteure mit enzyklopädischem Eifer daran, eine möglichst prägnante Wissenssammlung zusammenzustellen, hängt bei der Wikipedia die Themenauswahl von den Interessen der Autoren ab. Ob "Tolkien" oder "Internet", "Erkenntnistheorie", "Hitler-Tagebücher" oder "HDTV" - die deutsche Wikipedia bietet Erklärungen zu den unterschiedlichsten Bereichen - vom kanonischen Wissen, das auch den Brockhaus oder die Encyclopaedia Britannica füllt, bis hin zu jenen Themen, die zwar viele bewegen oder interessieren, die aber kaum Eingang in die klassischen Enzyklopädien finden. So hat etwa die Pop-Ikone Dieter Bohlen ihren Platz in der Wikipedia. Das Online-Lexikon umfasst derzeit knapp 130 000 Stichwörter. Das sind etwa halb so viele wie in der aktuellen Brockhaus-Ausgabe. Sind die deutschen Wikipedianer jedoch weiterhin so fleißig wie bisher, ist es nur eine Frage der Zeit, bis die virtuelle die gedruckte Enzyklopädie überholt hat. Denn die deutschsprachigen Autoren - nach den englischsprachigen die aktivsten der weltweiten WikipediaBewegung (siehe Kasten links) - steuern Tag für Tag rund 500 neue Einträge bei. Allerdings: Manches Stichwort sucht man in der Wikipedia vergeblich - trotz der Vielzahl der Autoren. "Wir stehen zu diesen Lücken", sagt Klempert. Um einzelne Themengebiete gezielt auf Vordermann zu bringen - etwa alles rund um Olympia in diesem Sommer - ruft die Gemeinschaft regelmäßig Qualitätsoffensiven aus. In manchen Themenbereichen - beispielsweise Internet, Computer, Software, Technik - ist das Online-Lexikon heute schon ausführlicher als die klassischen Enzyklopädien. Die Autoren können nach Belieben in die Tiefe gehen - im Gegensatz zu einem gedruckten Lexikon unterliegen sie keiner Platzbeschränkung. Dennoch setzt auch die Wikipedia wie die gedruckten Vorbilder auf die Qualität der Beiträge. Und die entsteht aus der Masse der Mitarbeiter: Jeder kann sein Wissen beitragen, kann Lücken in Texten füllen oder Fehler korrigieren. Außerdem kann man die Entstehungsgeschichte eines jeden Artikels verfolgen, da alle Änderungen aufgezeichnet werden.
    Nicht einmal Vandalen, die Artikel 'löschen oder verunstalten, haben eine Chance. Unsinn verschwindet binnen weniger Minuten wieder aus der Wikipedia, gelöscht von Community-Mitgliedern, die ihre Aufgabe eher in der Qualitätssicherung als im Verfassen von Artikeln sehen. Denn der durchschnittliche Wikipedianer durchläuft in seinem Leben verschiedene Stadien der Mitarbeit: Neu Hinzugekommene sind noch sehr enthusiastisch, neue Artikel anzulegen oder zu schreiben. Wer schon etwas länger dabei ist, sucht sich oft ein Spezialgebiet. Doch man muss nicht einmal schreiben, um an der Wikipedia mitzuwirken. Zur Gemeinschaft gehören auch Fotografen, die Artikel mit ihren Bildern illustrieren. Einige erfahrene Wikipedianer haben sich auf das Redigieren von Texten verlegt. Auch hier hilft die Technik: Auf speziellen Seiten sind Neueinträge und Änderungen aufgelistet. Personalisierte Beobachtungslisten ermöglichen zudem das Verfolgen selbst gewählter Spezialthemen. So ist es einfach, das aktuelle Geschehen im Auge zu behalten und gezielte Desinformation zu verhindern. "Vereinzelt gibt es immer mal wieder Versuche von Personen oder von Unternehmen, sich selbst besonders gut darzustellen", berichtet Klempert. Doch allzu stark MarketingGefärbtes falle schnell auf und werde durch eine neutralere Darstellung ersetzt. Da die Wikipedianer zu jedem Zeitpunkt den Datenbestand ändern können, haben sie die Möglichkeit, nicht nur vorhandene Einträge stets auf dem aktuellen Stand zu halten, sondern auch Neues umgehend aufzunehmen. Manchmal dauert es nur Stunden, bis ein aktuelles Thema aus den Nachrichten Eingang in die Wikipedia findet. Ein Beispiel ist Bundespräsident Horst Köhler, der Anfang des Jahres den meisten Deutschen noch kein Begriff war: "Von dem Moment an, als der Name zum ersten Mal ernsthaft genannt wurde, dauerte es etwa drei Stunden, bis wir einen sehr ordentlichen Artikel zu dem Mann in der Wikipedia hatten", erzählt Klempert. Das ist ein klarer Vorteil gegenüber den gedruckten Nachschlagewerken, die nur alle paar Jahre in einer neuen Auflage erscheinen - und das oft auch noch über einen Zeitraum von mehreren Jahren. Um Aktuelles nachzuschlagen, lohnt sich also allemal der schnelle Blick in das OnlineLexikon. Experten sehen vom Informationsgehalt her kaum Unterschiede zwischen der Wikipedia und einem konventionellen Lexikon. "Viele Autoren der Wikipedia sind ja auch Wissenschaftler", sagt Michael Preuss, Informationswissenschaftler an der Fachhochschule Köln und Mitarbeiter an einem Forschungsprojekt für Wissensklassifikation. "Die Einträge etwa in Mathematik können sich durchaus mit den Einträgen in einem herkömmlichen Lexikon messen." Der Unterschied liegt für Preuss eher im Anspruch: Ein klassisches Nachschlagewerk sei ein Konversationslexikon, das darüber bestimme, was man wissen müsse und was nicht. Wikipedia sei "demokratischer". Um ganz sicher zu gehen, empfiehlt WikipediaSprecher Klempert, die Informationen aus dem Online-Lexikon mit einer zweiten Quelle zu verifizieren. "Ich finde, dass man sich auf kein Medium blind verlassen sollte", sagt Klempert, "weder auf die Wikipedia, noch auf den Brockhaus oder die Encyclopedia Britannica." "
  20. Siegle, J.: Sexuelle Belästigung im Internet : Pornographie, Gewalt und Hass finden zunehmend den Weg ins Web. Jugendschützer kämpfen dagegen an (2001) 0.01
    0.006443904 = product of:
      0.025775615 = sum of:
        0.025775615 = weight(_text_:und in 4986) [ClassicSimilarity], result of:
          0.025775615 = score(doc=4986,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.22088107 = fieldWeight in 4986, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4986)
      0.25 = coord(1/4)
    
    Content
    "Bilder verstümmelter Leichen und vergewaltigter Kinder, Anleitungen zum Bombenbauen oder neonazistische Hasstiraden - fast 1800 Jugendschutz verletzende Online-Angebote registrierte die Zentralstelle der Bundesländer für den Jugendschutz im Internet, Jugendschutz.net, im vergangenen Jahr in Deutschland. Für das laufende Jahr ist mit noch mehr Beanstandungen zu rechnen. "Die Zahl der Hinweise auf jugendgefährdende Internet-Inhalte nimmt ebenso stetig zu wie die Zahl der Websites", erklärt Martin Döring, Jurist bei Jugendschutz.net, gegenüber der FR. "Und nach unserem Eindruck wächst dabei die Zahl pornographischer Angebote mit Abstand am schnellsten." In 550 von den Mainzer Jugendschützern beanstandeten Fällen handelt es sich um "einfache" Pornographie, in 250 Fällen um "harte" Sex-Angebote - sprich sexuelle Handlungen mit Kindern, Tieren und Gewaltdarstellungen. Die Web-Adressen derartiger Online-Angebote werden umgehend an das Bundeskriminalamt in Wiesbaden weitergeleitet. Mehrere Hunderte der jugendgefährdenden Sites haben neonazistische Hintergründe. Schon seit 1997 durchforstet Jugendschutz.net das Internet. Zum einen recherchieren die "Cyberpolizisten" dabei selbst aktiv nach jugendgefährdenden OnlinePerversionen, zum anderen wird so genannte Crawler-Software eingesetzt, die das Netz systematisch durchsiebt. "Die meisten Hinweise bezüglich pornographischer Internet-Seiten erhalten wir jedoch über unsere Hotline", erklärt Döring. "Rechtsextreme Online-Angebote spüren wir in der Regel dagegen selbst auf." Die Betreiber pornographischer Angebote werden angeschrieben und aufgefordert, die Inhalte vom Netz zu nehmen oder abzuändern.
    Bislang kamen dieser Aufforderung nach einem ersten Hinweis immerhin neun von zehn Anbietern nach. Rechtsextreme Überzeugungstäter und Anbieter mit schweren Verstößen werden umgehend an die Strafverfolgungsbehörden weitergeleitet, wonach empfindliche Strafen drohen - zumindest sofern es sich um in Deutschland beheimatete Internet-Angebote handelt." Liegen die Web-Seiten allerdings im Ausland, sind die Möglichkeiten deutlich eingeschränkt: Die deutsche Zentralstelle der Bundesländer kann dann nur die Provider bitten, entsprechende Sites im Hinblick auf die eigenen Allgemeinen Geschäftsbedingungen zu überprüfen und diese bei eventuellen Verletzungen zu entfernen. "Vor allem auf in den USA gehostete Angebote haben wir nur beschränkten -Einfluss", sagt Döring. "Das gilt insbesondere in Bezug auf rechtsextreme Inhalte, da dort das Recht auf freie Meinungsäußerung wesentlich unbeschränkter ist als in Deutschland." - Hardcore-Sex bei Whitehouse.com - Im Zuge der laxeren US-Online-Politik sind auf amerikanischen Internet-Servern Darstellungen von Gewalt, Sex oder Neonazi-Content noch einfacher zu finden. Eine vom Crimes Against Children Research Center der University of New Hampshire Ende Juni veröffentlichte Studie belegte zudem, dass im Cyber-Mutterland USA jedes fünfte Kind während des Surfens oder Chattens sexuell belästigt wird. Eine aktuelle Untersuchung des Washingtoner Pew Internet Projects unterstreicht dieses erschreckende Ergebnis mit der Feststellung, dass fast 60 Prozent der amerikanischen Internet-Kids unaufgefordert E-Mails oder sonstige Online-Mitteilungen von Unbekannten empfangen. Dennoch hat das Jugendschutz.net auch in den Vereinigten Staaten schon einige Erfolge vorzuweisen: Geocities, ein Anbieter von Speicherplatz im Internet, nahm beispielsweise mehrere Web-Seiten vom Netz, nachdem die Initiative der Bundesländer darauf hingewiesen hatte, dass Inhalte gegen die Geschäftsbedingungen des Yahoo-Ablegers verstoßen.
    "Unzählige pornographische Online-Angebote sind auch nur einen Mausklick von konventionellen Angeboten entferne, moniert Döring. "Mit ähnlich lautenden WebAdressen sollen Surfer unfreiwillig auf bestimmte Sites gelockt werden." Eine vermeintliche Internet-Domain des Weißen Hauses gilt bereits seit Jahren als Paradebeispiel hierfür: Die Adresse Whitehou-se.com lädt keineswegs zu einem virtuellen Rundgang im Oval Office, sondern zu handfester Hardcore-Unterhaltung. Der US-Präsidentensitz ist dagegen unter Whitehouse.org zu erreichen. Und auch in Deutschland gibt es genügend derartig irreführender Adressen. "Diese bewusste Falschdeklarierung stößt uns ganz besonders übel auf, wenn dadurch Kinder ungewollt mit diesen Seiten konfrontiert werden", erklärt Döring. Die Jugendschützer laufen bislang vergebens Sturm gegen die bewusst irreführenden - und oftmals deutlich fragen- und auch menschenverachtenden - Domainnamen. "Es wäre absolut unmöglich, unter dem Namen Negervotzen.de beim Ordnungsamt ein Unternehmen einzutragen", kritisiert Döring. "Und dennoch können diese Begriffe problemlos als Web-Adressen registriert werden." Die Registrare argumentieren ihrerseits, nicht genügend Kapazitäten zu haben, alle Anmeldungen prüfen zu können. - Harmlose Seiten werden gesperrt - Ein Blick in die "Wois"-Datenbank der deutschen Internetverwaltung' Denic bestätigt die fast schon skandalöse Praxis der Domainvergabe: Ein Frankfurter konnte etwa die Adresse Kinderficken.de registrieren, eine Mann aus Bad Salzuflen die Domain Vergewaltigung.de. "Also was tun?", fragen beunruhigte Eltern. Verschiedene Experten raten zum Einsatz von Internet-Filterprogrammen. Die bislang erhältliche Software dient dem Ziel des Jugendschutzes jedoch nur unzureichend. Web-Filter wie CyberPatrol, CyberSitter, Cyber Snoop, Net-Nanny oder Surf-Watch zeigten in verschiedenen Testreihen erhebliche Mängel. Grund: Die Sperrung von Seiten mit "einschlägigen" Begriffen ist oft wenig treffgenau, viele problematische Angebote bleiben vom Filter verschont, harmlose wiederum werden grundlos gesperrt.
    "Man muss dabei trennen zwischen Keyword-Blocking-Software wie CyberSitter und Lösungen wie CyberPatrol, die Adressen blockieren", präzisiert Döring die Filterproblematik. "Programme wie CyberSitter haben das Problem mit dem Zuviel an Sperrung, SiteBlocker laufen dagegen der rasanten Entwicklung im Internet immer hinterher." Frühere Versionen von Filterprogrammen zensierten sogar Begriffe wie "Staatsexamen" oder die englische Grafschaft Sussex. Unter die Zensur fielen teilweise auch Sites von Schulen, die die Note "befriedigend" vergeben haben. Beliebte Filterop'fer sind auch Angebote zur Sexualaufklärung. In der Nazi-Online-Szene werden außerdem häufig Codes verbreitet, die sich mit Filtern kaum erfassen lassen. Besonders beliebt ist etwa die Ziffer 88: Die beiden Zahlen stehen hierbei für den achten Buchstaben des Alphabets, also zweimal "H" als Abkürzung für "Heil Hitler". In jüngerer Vergangenheit wurden zudem auch die Indexlisten von Filteranbietern gehackt - so geschehen etwa Anfang des Jahres bei der Firma Surfcontrol aus Massachussetts, dem Anbieter von Cyber Patrol. Und auch im World Wide Web selbst kursieren massenweise Anleitungen zum Cracken der Cybersiebe: "Die vollmundigen Versprechungen der Hersteller nach einem vollständigen Schutz entsprechen nicht unseren Beobachtungen", kritisiert auch Döring. "Filter können eine flankierende Maßnahme sein, sie können die elterliche Aufsicht aber nicht ersetzen."

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications