Search (635 results, page 20 of 32)

  • × theme_ss:"Informationsmittel"
  1. Franz, G.: ¬Die vielen Wikipedias : Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt (2011) 0.01
    0.009159986 = product of:
      0.036639944 = sum of:
        0.036639944 = weight(_text_:und in 568) [ClassicSimilarity], result of:
          0.036639944 = score(doc=568,freq=20.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3097467 = fieldWeight in 568, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=568)
      0.25 = coord(1/4)
    
    Abstract
    Mittlerweile sind mehr als zehn Jahre seit der Gründung der Wikipedia vergangen. Die kollaborativ zusammengestellte Online-Enzyklopädie blickt auf eine beispiellose Erfolgsgeschichte zurück und hat inzwischen sogar viele klassische Lexika das Fürchten gelehrt. Aber: Es gibt gar nicht die eine Wikipedia! Stattdessen handelt es sich bei dem Projekt um hunderte verschiedene, weitgehend voneinander unabhängig agierende Sprachversionen. Sie sind nicht nur unterschiedlich groß, sondern bestehen auch aus differierenden Inhalten. Artikel zu ein und demselben Stichwort können von Wikipedia zu Wikipedia erheblich voneinander abweichen. Von der Gemeinschaft bereits erarbeitetes Wissen steht daher nicht allen Nutzern in der Welt gleichermaßen zur Verfügung. Mit einem forcierten interlingualen Wissensaustausch ließe es sich aber für eine gegenseitige Bereicherung der Wikipedias nutzen. Das Buch gibt zunächst einen allgemeinen Überblick zur Wikipedia, geht auf ihre Entstehung, ihre Funktionsweise und auf die beteiligten Akteure ein. Auch das "Erfolgsgeheimnis" des Nachschlagewerks sowie aktuelle Herausforderungen werden herausgearbeitet. Die anschließende Untersuchung zeigt, wie sehr verschieden große Wikipedias voneinander differieren und wo die Unterschiede im Einzelnen liegen. Danach folgt eine Vorstellung von Ansätzen, Werkzeugen und Schwierigkeiten des interlingualen Wissensaustauschs zwischen den Sprachversionen. Der letzte Teil entwirft schließlich ein detailliertes Konzept für einen neuartigen Wissensaustausch, das aus mehreren ineinandergreifenden Komponenten rund um den Kern einer speziellen Übersetzungsoberfläche besteht. Das Konzept lässt sich auch als Blaupause für Lokalisierungsbemühungen multisprachlicher Wikis nutzen, wie sie international operierende Unternehmungen zunehmend einsetzen. Die Ausarbeitung, auf der dieses Buch basiert, wurde mit dem FHP-Preis 2011 für die beste Abschlussarbeit im Studiengang "Information und Dokumentation" der FH Potsdam ausgezeichnet.
    BK
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    05.20 (Kommunikation und Gesellschaft)
    Classification
    54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
    05.20 (Kommunikation und Gesellschaft)
  2. Krings, N.: Blick in Nachbars Garten : Google Earth - Faszinierende Satelliten-Bilder von allen Teilen der Erde (2006) 0.01
    0.009138492 = product of:
      0.036553968 = sum of:
        0.036553968 = weight(_text_:und in 4846) [ClassicSimilarity], result of:
          0.036553968 = score(doc=4846,freq=26.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3090199 = fieldWeight in 4846, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4846)
      0.25 = coord(1/4)
    
    Content
    "Noch können Neugierige nicht genau erkennen, was der Nachbar in seinem Garten gerade so macht. Doch weit entfernt von derart privaten Einblicken sind die PC-Anwendungen, mit deren Hilfe man aus dem Weltraum per Satellit auf die Erde schaut, nicht mehr. Google Earth ist längst Kult. Kritiker weisen zwar darauf hin, dass die Bilder zumindest bei militärischen Anlagen ein hohes Sicherheitsrisiko darstellen. Aber die Faszination überwiegt. Und die Möglichkeit, viel Geld zu verdienen. Immer mehr Firmen lassen sich gegen Gebühr bei Google Earth listen, damit sie für jeden Nutzer auf diesem Weg zu finden sind. Inzwischen gibt es sogar eine Gemeinschaft (Comunity) der Google Earth-Nutzer weltweit. jeder Interessierte hat die Möglichkeit, persönliche Landmarken einzufügen und auf diese Weise alle, die das kostenlose Programm nutzen, überall auf der Welt auf die eigene Gartenlaube aufmerksam zu machen. Spannend sind auch Wettbewerbe der Comunity. Etwa: "Wo sind die größten Parkplätze auf der Welt zu finden?" Eine richtige Antwort lautet: im Disneyland von Tokio. Von großartigen Ideen möchten schnell auch andere profitieren. Klicktel.de bietet eine besonders clevere wie nützliche Lösung für seinen Routenplaner an. Straße mit Nummer eingeben, die Stadt nennen - und schon kann man ein Blick auf das Haus werfen, in dem man wohnt, und auf die Straße, die man sucht. Erstaunlich, dass die Auflösung hier meist besser ist als bei den Aufnahmen von Google Earth für Deutschland. Die Google-Bilder aus den USA dagegen sind "gestochen scharf, teilweise sogar bis hinunter auf rund 30 Meter Höhe. Hier hat Google auf Sicherheitsbedenken reagiert und per Bildbearbeitung eingegriffen. Das Dach des Weißen Hauses wurde für die Ansicht nachträglich geschwärzt, ebenso wie zahlreiche andere Regierungseinrichtungen.
    Wenn man die Betrachtungsebene bei Google Earth langsam kippt, wird sogar eine dreidimensionale Ansicht - teilweise echt, zum größten Teil aber vom Computer errechnet und künstlich wirkend - sichtbar. Und das schafft Google Earth mit Aufnahmen von einem einzigen Satelliten. Wer World Wind (den Dienst der US-Weltraumagentur Nasa) bemüht, kann je nach Gebiet auf unterschiedlich hoch auflösende Karten zurückgreifen. Das rund 20 Euro teure, leider sehr aufwändig zu installierende Programm NaSat verwendet Aufnahmen von diversen Nasa-Satelliten. Hiermit lassen sich beispielsweise ein Vulkanausbruch in der Südsee oder eine Feuersbrunst in Kalifornien beobachten. NaSat kann nahezu jeden Quadratkilometer der Erde abbilden und ist zudem mit Klicktel kompatibel, was bedeutet, dass in Klicktel gefundene Adressdaten in NaSat eingelesen und bis auf die Straße genau angezeigt werden können. Für Geographen ist interessant, dass man sich zusätzlich über Temperaturen und die Verteilung von Niederschlägen überall auf der Welt visuell informieren kann. Auch die Entdeckung beeindruckender Touristenziele wie den Kreml in Moskau, die Pyramiden von Gizeh oder die Villa von Bill Gates ist blitzschnell möglich. Google Earth hat als Anwendung, die ständig aktualisiert wird, den Vorteil, dass jeden Tag neue Daten den Blick auf die Erde interessanter machen. Und die Möglichkeiten sind noch lange nicht ausgereizt. So hat sich jetzt eine Initiative gefunden, die unter dem Motto "Deutschland muss schärfer werden" dafür sorgen möchte, dass zur Fußball-WM die Bereiche um die zwölf WM-Arenen höher aufgelöst ins Netz gestellt werden. Für Profis hat Google nachgelegt und bietet mit Earth Plus und Earth Pro zwei kostenpflichtige Versionen an. Unter anderem wurde GPS integriert. Daten des Ortungssystems können an Google übergeben werden."
  3. Grotjahn, H.: Qualitätsmessungen an der Wikipedia : Konstruktion von Qualität - eine Metaanalyse (2007) 0.01
    0.009052006 = product of:
      0.036208022 = sum of:
        0.036208022 = weight(_text_:und in 2771) [ClassicSimilarity], result of:
          0.036208022 = score(doc=2771,freq=50.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.30609533 = fieldWeight in 2771, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2771)
      0.25 = coord(1/4)
    
    Abstract
    Wikipedia ist ein internationales, internetbasiertes Projekt zur kollaborativen Erstellung einer freien Enzyklopädie. Die Beiträge werden beinahe ausschließlich von Freiwilligen verfasst. In den letzten Jahren hat Wikipedia einen beträchtlichen Umfang und eine hohe öffentliche Aufmerksamkeit erreicht. Durch ihr offenes Editiermodell hat sie jedoch auch viele Kritiker auf den Plan gerufen, die die Qualität des Erreichten bemängeln. Das vorliegende Werk verfolgt das Ziel, dieser oft unstrukturiert anmutenden Debatte einen übersichtlichen Rahmen zu geben. Dazu wird in einem ersten Teil das Projekt in den Kontext seiner verschiedenen Wurzeln gestellt, was zu einem besseren Verständnis dieses gänzlich neuen Phänomens beitragen soll. Im zweiten Teil wird darauf aufbauend die Qualitätsdebatte so vollumfänglich wie möglich aufgearbeitet. Der Wunsch des Verfassers ist es, zur Diskussion der Qualitätsbeurteilung freier Online-Medien, speziell der Wikipedia, einen notwendigen und hoffentlich strukturgebenden Beitrag zu leisten. Das Buch richtet sich an alle Leser, die sowohl allgemein an Enzyklopädien und Wissensproduktion, wie auch speziell an der Wikipedia interessiert sind.
    Footnote
    Rez. in: IWP 60(2009) H.2, S.104 (U. Spree): "Immer wieder kommt die 'freie Enzyklopädie' Wikipedia wegen ihres Editiermodells in die Schlagzeilen. Beispielsweise erwirkte Lutz Heilmann MdB (Die Linke) im November 2008 eine einstweilige Verfügung, die es dem Wikimedia Deutschland e. V. untersagte, die Internetadresse wikipedia.de auf die Internetadresse wikipedia.org umzuleiten, solange die nach Einschätzung des Politikers rufschädigenden und persönlichkeitsverletzenden Einträge zu seiner Person in der Enzyklopädie fortbestünden. Die Wikipedia war unter der Adresse wikipedia.de für einige Stunden nicht erreichbar. Der Eintrag wurde von Wikipediaredakteuren anschließend stark bearbeitet und daraufhin die Adressumleitung wieder frei geschaltet. Gleichzeitig kündigte Wikipedia an, dass sie gegen die Entscheidung des Landgerichts Lübeck vorgehen werde. Fälle wie diese belegen das große öffentliche Interesse an Aspekten der Qualität, respektive Objektivität der Wikipedia. Gerade weil Diskussionen um die Qualiät und Verlässlichkeit der Wikipedia in den Medien in der Regel eher polemisch geführt werden, ist es zu begrüßen, wenn sich auch aus fachwissenschaftlicher Perspektive Publikationen kritisch mit dieser Fragestellung auseinandersetzen. Henrik Grotjahn widmet sich in seiner Magisterarbeit "Konstruktion von Qualität", angenommen am Institut für Kommunikationswissenschaft Münster 2007 (Original recherchierbar über den Katalog der Universitätsbibliothek Münster), die vom VDM Verlag Dr. Müller unter dem Titel "Qualitätsmessungen an der Wikipedia" publiziert wurde, der Frage, ob es der Wikipedia auf dem Wege der kollaborativen Erarbeitung gelungen ist, ein enzyklopädisches Nachschlagewerk zu schaffen, das in seiner Qualität mit traditionellen Verlagsprodukten mithalten oder diese sogar qualitativ übertreffen kann.
    Einleitend gewährt Grotjahn kursorische Einblicke in die Geschichte der Enzyklopädien Enzyklopädien, wobei zentrale Themen wie Gemeinsamkeiten und Unterschiede zwischen Enzyklopädien und Universalwörterbüchern und die starken historischen Wandlungen unterworfenen Anforderungen an die Wissenschaftlichkeit von Allgemeinenzyklopädien nur angerissen werden. Zentrale (technische) Voraussetzungen der kollaborativen Wissenserstellung wie das Open-Source-Prinzip und die Wikitechnologie werden kurz vorgestellt. Gängige Kriterien zur Beurteilung von Medienqualität werden erwähnt, die anregende Idee, journalistische Qualitätskriterien auf die Wikipedia anzuwenden angerissen, jedoch nicht argumentativ zu Ende geführt. Grotjahn fasst seine Lektüreergebnisse zur Qualitätsbeurteilung von Enzyklopädien in der Erkenntnis zusammen, dass "die objektive Beurteilung von Qualität Schwierigkeiten bereitet" (S. 43). Er macht aus dieser Not eine Tugend und versucht auf indirektem Wege, nämlich durch die Sekundäranalyse - so lautete auch noch der Untertitel seiner Magisterarbeit - von Qualitätsuntersuchungen der Wikipedia, dem Phänomen der Qualitätsbeurteilung und der implizit angewandten Qualitätskriterien auf die Spur zu kommen. Im Mittelpunkt der Arbeit steht die als "Empirie" betitelte Übersicht ausgewählter bis zum Erscheinungstermin der Arbeit vorliegende Qualitätsuntersuchungen zur Wikipedia. Nach der Methode des propositionalen Inventars werden Studien, in denen es zumindest teilweise um Qualitätsmessung geht, in Hinblick auf Ansatz, Untersuchung, Ergebnisse und Einzelbewertung verglichen. Die Vergleichskriterien erschließen sich erst nach genauerem Lesen, so ist mit Ansatz die Fragestellung der jeweiligen Studie gemeint und Untersuchung meint das Forschungsdesign und die Untersuchungsmethodik. Ausgesprochenes Ziel ist es "Gemeinsamkeiten zu finden, gute Ansätze von schlechten zu trennen" (S.7). Grotjahn erhebt den Anspruch, Vorschläge für Qualitätsmaßstäbe zu entwickeln, die den Besonderheiten der Wikipedia gerecht werden. Er hat 17 mehr oder weniger umfangreiche Untersuchungen zusammengestellt, darunter auch die aufsehenerregende Untersuchung von Jim Giles (2005) für die Zeitschrift Nature, in der die Wikipedia mit der Britannica verglichen wurde und die erstmals zu dem Ergebnis kommt, dass zwischen den beiden Werken kein nennenswerter Qualitätsunterschied zu verzeichnen sei. Die Auswahl der analysierten Arbeiten erscheint eher zufällig, seine Recherchestrategie und die zugrunde gelegten Quellen legt Grotjahn nicht offen.
    In der Auswahl befinden sich fachwissenschaftliche Artikel (in der Regel Webquellen) neben Testberichten aus der Computerzeitschrift c't ebenso wie essayistische Annäherungen an das Thema aus Telepolis sowie studentische Abschlussarbeiten. Studie für Studie reiht Grotjahn die Ergebnisse seiner Analysen additiv aneinander. Unter Berücksichtigung des breiten Spektrums der ausgewählten Studien sowohl in Hinblick auf die Herangehensweise von journalistisch bis fachwissenschaftlich als auch des großen inhaltlichen Spektrums von naturwissenschaftlichen Themen bis hin zu historischen Fragestellungen erstaunt Grotjahns Beobachtung wenig, dass die einzelnen Studien kaum aufeinander aufbauen und ein starkes Auseinanderfallen zwischen sehr positiven und sehr negativen Einschätzungen zu verzeichnen ist. Die methodische Anregung bei der Analyse lexikographischer Qualität stärker die Nutzerwartungen mit einzubeziehen ist nahe liegend und sinnvoll und ganz im Mainstream der fachlexikographischen Forschung, die die Einbeziehung der Nutzererwartungen unter dem Begriff der Nutzerstruktur diskutiert. Eine Diskussion, die Grotjahn nicht rezipiert. Insgesamt handelt es sich bei dem Text um eine typische Abschlussarbeit, was soweit geht, dass typische stilistische Schwächen, die aus dem Bemühen die passivische Darstellungsweise konsequent im Text durchzuhalten, nicht vom Lektorat korrigiert wurden. "Dem von den Verfassern angeregten Wunsch, dies oder ähnliche Untersuchungsreihen an anderen Sprachversionen durchzuführen, kann sich dennoch angeschlossen werden." (S. 72). Trotz der genannten Schwächen liefert Grotjahn insgesamt einen nützlichen Überblick über die bisherigen Untersuchungen zur Qualität in der Wikipedia, der den Anforderungen an eine Magisterarbeit angemessen ist. Grotjahn leistet durch die systematische Lektüre wichtige Vorarbeiten für weitere Qualitätsmessungen an der Wikipedia und beleuchtet das weite thematische Spektrum. Seine Ausflüge in die journalistische Theoriebildung und die Medientheorie geben interessante Anregungen für zukünftige Studien. Die Arbeit hat es verdient, dass sie, z. B. über einen Hochschulschriftenserver wie Opus oder die originelle und gut zugängliche private Website des Autors (www.hoenn.net/), einer breiteren Öffentlichkeit jenseits der engen Hochschulöffentlichkeit zur Verfügung gestellt wird. In Hinblick auf die genannten Schwächen der Studie stellt sich allerdings für die Rezensentin wieder einmal die Frage, ob jede Diplom-, Bachelor-, Master-, oder Magisterarbeit tatsächlich als Buch erscheinen und für - in diesem Falle als Books-on-demand-Publikation - 49,- Euro verkauft werden muss, wo andere preisgünstigere Publikationsformen wohl eher geeignet wären, dem Text eine größere Verbreitung, gerade auch bei einer studentischen Zielgruppe, zu verschaffen."
  4. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 1646) [ClassicSimilarity], result of:
          0.035829477 = score(doc=1646,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 1646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1646)
      0.25 = coord(1/4)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
  5. Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 1309) [ClassicSimilarity], result of:
          0.035829477 = score(doc=1309,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 1309, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1309)
      0.25 = coord(1/4)
    
    Content
    "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
    In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
    Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
  6. Buchholz, B.; Melzer, C; Ranniko, J.: ¬Das Wissen geht ins Netz : Brockhaus-Enzyklopädie bald nur noch online und gratis (2008) 0.01
    0.008957369 = product of:
      0.035829477 = sum of:
        0.035829477 = weight(_text_:und in 1403) [ClassicSimilarity], result of:
          0.035829477 = score(doc=1403,freq=34.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.3028952 = fieldWeight in 1403, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1403)
      0.25 = coord(1/4)
    
    Content
    "Bei Alexander von Humboldt stand er im Regal, bei Otto von Bismarck und Konrad Adenauer ebenso und dazu seit Generationen in Hunderttausenden deutschen Haushalten: Die Brockhaus-Enzyklopädie war zwei Jahrhunderte so etwas wie die Bibel des deutschen Bildungsbürgertums und geradezu sprichwörtlich für Wissen. Doch die edlen Buchrücken im Regal oder das Schmökern, bei dem man beim Nachschlagen eines Begriffs auf ein Dutzend weitere stößt, gehören wohl bald der Vergangenheit an: Das berühmteste deutsche Nachschlagewerk soll es künftig nur noch online geben. Diese Nachricht sorgte schon vorab für ordentlichen Wirbel. Denn damit geht nicht nur eine Ära zu Ende. Das gesammelte Brockhaus-Wissen, das gedruckt und gebunden über zweieinhalbtausend Euro kostet, soll ab 15. April im Brockhaus-Portal kostenlos zur Verfügung stehen. Finanziert wird es durch Werbung. Ob sich das rechnen wird? Sprecher Klaus Holoch ist zuversichtlich: Wir sind von unserem Erfolg überzeugt." Künftige Konkurrenten geben sich gelassen: "Für uns ist das eine traumhafte Nachricht", sagt Arne Klempert von Wikipedia. Dass die kostenlose, von ihren eigenen Nutzern erarbeitete Online-Enzyklopädie den altehrwürdigen Brockhaus sturmreif geschossen hat, mag er nicht hören: "Für uns wird das keine großen Auswirkungen haben. Aber für unseren Verein, der sich der Förderung des Wissens verschrieben hat, ist das eine tolle Nachricht, wenn mehr Wissen allen zugänglich ist." Eine überfällige Nachricht: ,Wir leben in so spannenden Zeiten, dass Printlexika einfach nicht mehr funktionieren." Bei Wikipedia drücke man den Mannheimern "ganz ehrlich alle Daumen". Die 21. Auflage der Brockhaus-Enzyklopädie - sie war zur Frankfurter Buchmesse 2005 mit viel Pomp auf den Markt gekommen - verkaufte sich zu schleppend. Das Minimalziel von 20 000 Exemplaren sei verfehlt worden, berichtet Holoch: "Die 21. Auflage hat sich jetzt schon nicht gerechnet." Zu wenige Leute stellen sich die Enzyklopädie noch ins Regal.
    Mehrere Millionen Euro Verlust für 2007 Auch eine Sonderedition von Armin Müller-Stahl kam bei Menschen und Medien zwar gut an, konnte den Verkauf aber nicht ankurbeln. Allein aus Prestigegründen könne der Verlag keine neue Auflage herausbringen: ,Wir sind sehr skeptisch, ob es eine 22. Auflage geben wird." Der Verlag hat einen Verlust von mehreren Millionen Euro für 2007 angekündigt. Das Geschäft mit Duden, Schulbuch und Kalendern laufe dagegen gut, sagte Holoch. Auch Themenlexika wie "Brockhaus Wein" sei en sehr erfolgreich. Auch Angebote wie der Brockhaus auf CD-Rom werden bleiben. In den vergangenen sechs, sieben Jahren habe der klassische Lexikon-Markt bereits gebröckelt. "Jetzt scheint das Internet den absoluten Durchbruch geschafft zu haben." Dass der Verlag die Kehrtwende zu spät vollzogen habe, bestreitet Holoch. Bei der Vorbereitung des Online-Angebots sei der Verlag aber "von der Marktentwicklung überholt" worden. Und: Beim Print Thema wollten wir wirklich alles probiert haben." Rund 60 Mitarbeiter in der Leipziger Online-Redaktion kümmern sich nun um das neue Produkt. "Der Stamm der Mannschaft, die an der letzten, seit Ende 2006 vollständigen Printausgabe arbeitete, wurde mit Online-Profis ergänzt", erklärt Holoch. Chefredakteurin wird Sigrun Albert, die zuvor die Redaktionen von "Brigitte.de" und "YoungMiss.de" leitete. Meyers Lexikon - es gehört ebenfalls zum Verlag Bibliographisches Institut & F.A. Brockhaus AG - ist bereits seit einem guten Jahr online: "Das war unser Testfeld, es hat sich gut entwickelt." Zu Meyers Lexikon können User selbst mit Artikeln beitragen, die von der Redaktion geprüft und ergänzt werden. Das soll beim Brockhaus anders sein, sagt Holoch, verspricht aber: Wir werden auch auf Web 2.0-Bedürfnisse eingehen."
    Doch die Konkurrenz ist groß. In dieser Woche ist auch "Spiegel Wissen online gegangen, mit dem auf Wikipedia, das BertelsmannLexikon und sämtliche Artikel des "Spiegel" und zum Teil des "Manager-Magazins" kostenlos zurückgegriffen werden kann. ,Wir glauben, dass wir damit nicht nur den Lesern, sondern auch dem "Spiegel' den größeren Gefallen tun", sagt Ressortchef Hauke Janssen. Eine besondere Stellung beansprucht Brockhaus aber weiter für sich: "Wir werden uns klar von Anbietern wie Wikipedia unterscheiden. Wir setzen auf Relevanz, Richtigkeit und Sicherheit - wir werden nicht manipulierbar sein." Eine Kritik, die man bei Wikipedia erwartungsgemäß ungern hört: »Es kann keine hundertprozentige Garantie für hundertprozentige Richtigkeit geben", sagt Klempert. "Entscheidend ist, wie schnell Fehler erkannt und beseitigt werden." Und da sorge die große Autorenschar bei Wikipedia für einen "Selbstreinigungseffekt": "Oft nach Minuten, spätestens nach wenigen Stunden sind Fehler korrigiert." Diese Selbsteinschätzung bestätigten Experten nach Tests mit Wikipedia: Bei mehreren Vergleichen mit der Encyclopedia Britannica und auch dem Brockhaus zeigte sich die kostenlose Volksenzyklopädie als ebenbürtig - und manchmal als überlegen. Jedenfalls: Von der noblen 30-bändigen Enzyklopädie zum werbefinanzierten Gratisangebot im Internet - für den Mannheimer Traditionsverlag Brockhaus ist das ein "Paradigmenwechsel", sagt Klaus Holoch. "Das tut natürlich auch ein bisschen weh, wir lieben ja alle Bücher. Aber unsere Königssubstanz bringen wir künftig ins Internet, weil die Zukunft online ist.""
  7. Hehl, H.: Ein Linksystem zur Integration von Literatursuche und Literaturbeschaffung : Medline-LINK (2000) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 4832) [ClassicSimilarity], result of:
          0.035476472 = score(doc=4832,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 4832, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4832)
      0.25 = coord(1/4)
    
    Abstract
    Die durch das WWW gegebenen Möglichkeiten, von den Suchergebnissen einer Datenbank über Hyperlinks auf elektronische Volltexte zuzugreifen, einzelne Titel online zu bestellen oder mit anderen Datenbanken oder Katalogen zu verknüpfen, werden mittlerweile von vielen Datenbankanbietern genutzt oder standardmässig angeboten. Das hier besprochene Linksystem weist dieselben Möglichkeiten auf und verbindet Suchergebnisse mit lokal verfügbaren elektronischen Zeitschriften bzw. mit Bibliotheks-Katalogen. Auch eine automatische Bestellfunktion ist vorhanden. Dieses auf Javascript basierende Linksystem verwendet ein einfaches, bisher aber noch wenig bekanntes Verfahren, bei dem jeweils die gesamte Ergebnisliste einer Datenbank (50 bis 200 Titel) in das Texteingabefeld eines Formulars eingefügt und dann weiter mit Javascript bearbeitet wird. Vorteilhaft ist die gross Anpassungsfähigkeit des Programms an die speziellen oder sogar individuellen Bedürfnisse. Medline-LINK wendet dieses Linkverfahren auf die besonders effiziente und zudem entgeltfreie Datenbank PubMed an. In dieser Testversion bilden die von der UB Regensburg abonnierten E-Zeitschriften zusätzlich eines großen Teils von elsevier-Zeitschriften den Grundbestand der zu verknüpfenden Zeitschriften. Über die dynamisch ermittelte ISSN kann die Verbindung von der Ergebnisanzeige zu den Bestandsanzeigen des BVB und GBV hergestellt werden. Die automatische Bestellfunktion wird am Beispiel des Fernleihbestellformulars der UB Regensburg demonstriert
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.4, S.209-216
  8. Christof, J.: ViFaPol - Virtuelle Fachbibliothek Politikwissenschaft (2003) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 1788) [ClassicSimilarity], result of:
          0.035476472 = score(doc=1788,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 1788, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1788)
      0.25 = coord(1/4)
    
    Abstract
    Die Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky baut als zuständige Sondersammelgebietsbibliothek (3.6 Politik / Friedensforschung) seit August 2000 die Virtuelle Fachbibliothek Politikwissenschaft auf, zu erreichen unter der Internetadresse http://www.vifapol.de. Im Antrag an die Deutsche Forschungsgemeinschaft (DFG), die das Projekt im Rahmen des Aufbaus eines Netzwerks Virtueller Fachbibliotheken fördert, wurden im Jahr 1999 folgende Anforderungen an ein Fachportal für die Politikwissenschaft und die Friedensforschung genannt: - Umfassende Information über die qualitätsvollen Internetquellen des Faches durch Präsentation in einem Fachinformationsführer, welcher nach der in Deutschland gebräuchlichen fachlichen Gliederung systematisch strukturiert ist - Anschluss- und Integrationsfähigkeit der Datenbank für Internetquellen sowohl in den weiteren Fachzusammenhang der Sozialwissenschaften als auch in internationale Nachweissysteme (fachliche Subject Gateways) - Gewährleistung einer stabilen Infrastruktur für den Nachweis und nötigenfalls die langfristige Archivierung elektronischer wissenschaftlicher Publikationen, Steigerung der Attraktivität elektronischen Publizierens durch den Aufbau eines zentralen, auch für die internationale FachCommunity gut erreichbaren Zugangspunktes - Einführung in die - mehr und mehr elektronischen - Fachinformationsmittel ausgehend von den Bedürfnissen der akademischen Lehre - Optimierung des Zugangs zu allen Gattungen von Publikationen ohne Medienbruch in einheitlichem Zugriff - Portalfunktion auch für weitere Informations- und Kommunikationsstrukturen im Fach. Diese Punkte sind mit Blick auf die notwendigen Infrastrukturentwicklungen umgesetzt, der sechste wurde in Absprache mit der Deutschen Vereinigung für Politische Wissenschaft (DVPW) mit Hinweis auf deren eigene Aktivitäten zurückgestellt.
  9. Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 2856) [ClassicSimilarity], result of:
          0.035476472 = score(doc=2856,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 2856, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2856)
      0.25 = coord(1/4)
    
    Abstract
    Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
  10. Lang, T.: Wissen fassen (2004) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 3117) [ClassicSimilarity], result of:
          0.035476472 = score(doc=3117,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 3117, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3117)
      0.25 = coord(1/4)
    
    Abstract
    In einer komplexen LebensweIt zwischen Junk Bonds und Botulismus kann niemand alles im Kopf haben. Das Internet hält für fast jeden Bedarf ein bisschen Nachhilfe parat: Von der allumfassenden Enzyklopädie bis hin zum speziellen Fachlexikon.
    Content
    "Das Wissen der Welt in einem Buch - davon träumte die Menscheit vor 300 Jahren. Mit dem WWW ist sie diesem Traum ein Stück näher gekommen, um festzustellen, dass dieses Wissen kaum noch handhabbar ist. Einen der besten Zugriffe darauf bieten immer noch die zahlreichen großen und kleinen Online-Nachschlagewerke von enzyklopädisch bis fachspezifisch. Doch der Zugang zu diesem freien Wissen wird immer schwieriger. Besonders die traditionsreichen Enzyklopädien haben ihr Angebot in den vergangenen Jahren vielfach kostenpflichtig gemacht. Serverplätze, redaktionelle Entwicklung und Betreuung kosten Geld. Selbst offene Projekte wie die Wikipedia, die die Netzgemeinde selbst schreibt, kommen ohne Sponsor im Hintergrund nicht aus. Die Alternative sind werbefinanzierte Angebote. Anders funktionieren die vielen kleineren Informationsangebote im Netz. Ein Schmucklexikon oder eine kleine Börsenschule locken Besucher auf Sites, deren Hauptanliegen der Kommerz ist. Die Enzyklopaedia Britannica ist die feine Lady unter den Nachschlagewerken und sie geizt mit ihren Reizen. Ausführliche Informationen gibt es nur noch für zahlende Kunden, der Monatsbeitrag liegt bei fünf bis zehn US-Dollar im Monat. Dafür bekommt der Nutzer neben sehr ausführlichen Beiträgen weiterführende Links und Magazin-Artikel zum Thema. Die Suche ist ausgefeilt: Boolesche Operatoren, Trunkierung, sogar natürliche Fragen in der Art von: "what is the third longest river in the world?" sind möglich. Die Sprache der Enzyklopädie ist selbstredend Englisch. Zu den netten Zusatzangeboten zählen die Timelines. Das Flashmodul lässt einen Zeitstrahl vorübergleiten, auf dem die herausragenden Ereignisse zum gewählten Thema installiert sind. Die kurzen Artikel verweisen in die Online-Enzyklopädie. Die Britannica lohnt sich für alle, die häufig nachschlagen und dabei in die Tiefe gehen wollen."
  11. ku: Wissen kompakt (2004) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 3240) [ClassicSimilarity], result of:
          0.035476472 = score(doc=3240,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 3240, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3240)
      0.25 = coord(1/4)
    
    Abstract
    Videos, Themenreisen, 360-Grad-Panoramen und ein virtuelles Labor sollen das Nachschlagen im Data Becker Lexikon 2005 zum Wissenserlebnis machen.
    Content
    "Neben den üblichen booleschen Operatoren und Wildcards beherrscht die in den Überschriften oder im Artikelvolltext stöbernde Suchfunktion der Data-Becker-Scheibe auch einen Ähnlichkeitsmodus. Gibt man zum Beispiel "Rochade" ein, so macht dieser Modus den Hochadel, die Hochgrade der Freimaurer und William Hogarths Gemälde "Der Ehevertrag" ausfindig. War eine Suche erfolgreich, dann zeigt eine Leiste unter dem gerade ausgewählten Artikel bedeutungsverwandte Einträge an, die das Thema erweitern oder vertiefen. Auch unerfahrene Anwender dürften mit der Bedienung auf Anhieb zurechtkommen. Wer an Multimedia Spaß hat, geht auf eine Themenreise in die Welten der Technik, Kunst und Musik oder schaut sich fotorealistische 360-Grad-Panoramen an, die berühmte Bauwerke und Plätze europäischer Städte zeigen. Praktiker lüften im virtuellen Labor die Geheimnisse elektrischer Schaltungen oder basteln sich eine Enigma-Verschlüsselungsmaschine. Auch Data Beckers Lexikon 2005 musste sich dem aus 66 Stichworten bestehenden Inhaltstest aus c't 21104 stellen, für den es zu spät erschien. Besonders der Bereich Wissenschaft schnitt schlecht bis sehr schlecht ab, was auch daran lag, dass die Scheibe zwölf von 30 wissenschaftlichen Stichwörtern überhaupt nicht kannte. Im Durchschnitt gerade noch zufriedenstellende Ergebnisse erzielten gesellschaftliche und kulturelle Themen. Alles in allem aber wird der anspruchsvolle Nutzer zu oft wichtige Details vermissen - das Lexikonschnäppchen für knapp 20 Euro überzeugt nicht. (ku)"
  12. Start von Wikinews (2005) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 3300) [ClassicSimilarity], result of:
          0.035476472 = score(doc=3300,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 3300, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3300)
      0.25 = coord(1/4)
    
    Abstract
    Wikipedia (Password 12/2004) hat Wikinews herausgebracht. Grundlage sind Nachrichten, nicht wie sonst enzyklopädische Einträge. Aber auch hier kann jeder an den Nachrichten schreiben und einreichen, wie es ihm gefällt.
    Content
    "Wie soll das funktionieren? Vorsicht r ist auch gegenüber zu viel Skepsis angebracht. Diese war bei Wikipedia und seinen Lexikaeinträgen zunächst sehr groß. Dennoch ist etwas aus dem Projekt geworden. Kann in Wikinews eine hemmungslose Einseitigkeit und Emotionalisierung teilweise ohne große Rücksichtnahme auf die Faktenlage betrieben werden, wie sie vielen Blogs im letzten amerikanischen Präsidentschaftswahlkampf (meistens zugunsten von George W. Bush) eigen war? Dem setzt Wikinews einen Code "Neutral Point of View" entgegen, den sie strikt mit Hilfe eines Peer Review-Prozesses durchsetzen will. Das wirft Grundsatzfragen auf (Wie will man im Nachrichtenbereich ohne Relevanzurteile auskommen?) und führt zu dem weiteren Problem aktueller Verfügbarkeit. Denn wenn die Peers eine Woche benötigen, wie soll aus Wikinews ein News-Service werden? Andererseits gibt es Chancen. Etablierte Medien halten es mit etablierten Themen und tun sich vielleicht im Interessengeflecht zwischen Informanten, Inserenten und politisch Mächtigen schwer. Manche Themen beispielsweise auf lokaler Ebene, die kleine Minderheiten interessieren, erblicken vielleicht nur mit Hilfe von Wikinews das publizistische Licht der Welt. Wer es lernt, sich mit seinen Nachrichten im Peer Review-Prozess zu behaupten, hat wahrscheinlich eine Menge gelernt."
  13. Ganslmayer, K.: Per Mausklick zum Wissen der Welt : Chip Test & Technik: Lexika Online vs. Offline (2005) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 3996) [ClassicSimilarity], result of:
          0.035476472 = score(doc=3996,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 3996, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3996)
      0.25 = coord(1/4)
    
    Abstract
    Wo schlägt man im Internet-Zeitalter Wissen nach? CHIP hat für Sie herausgefunden, ob sich der Kauf eines Multimedia-Lexikons noch lohnt oder ob Sie alle Informationen genauso gut online finden. Wer braucht denn überhaupt noch Lexika? Schließlich findet sich in den unendlichen Weiten des Internets doch genug Wissen für unzählige Bücher oder DVDs - mehr, als je ein Lexikon umfassen könnte. Allerdings muss man sich die Informationen im Web erst mühsam zusammensuchen. Oder vielleicht doch nicht? Das redaktionell betreute Online-Lexikon wissen.de und die freie Enzyklopädie Wikipedia bieten zu vielen Stichwörtern die passenden Artikel - ohne langes Stöbern in Suchmaschinen-Ergebnissen. Aber können sie wirklich mit den etablierten MultimediaLexika mithalten? CHIP hat wissen.de und die deutsche Version von Wikipedia mit den drei renommiertesten Nachschlagewerken auf CD bzw. DVD verglichen: mit Microsofts Encarta, dem Brockhaus sowie Data Beckers großem Lexikon, jeweils in der aktuellen Version von 2005. In unserem Test steht die erfolgreiche Suche nach Informationen im Vordergrund - Multimedia und Extras sind uns weniger wichtig. Deshalb testen wir die preisgünstigen Standard-Versionen von Brockhaus und Encarta. Die PremiumVersionen bieten zwar umfangreiche Zusatz-Features und etwas mehr Inhalt, kosten aber auch mehr als das Doppelte. Haben die getesteten Lexika Vorteile gegenüber einer Online-Recherche per Suchmaschine? Wie gut Google mit unseren Suchbegriffen zurechtkommt, erfahren Sie im Kasten auf S. 95. Mit größtenteils kostenpflichtigen Online-Angeboten warten Encarta und Brockhaus auf. Was sie im Vergleich zur jeweiligen CD/DVD zu bieten haben, lesen Sie auf S.98.
  14. Polzer, J.: Deutsche Lexika im Wandel : Von der systematischen Enzyklopädie zum multimedialen Lexikon (2002) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 2172) [ClassicSimilarity], result of:
          0.035476472 = score(doc=2172,freq=12.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 2172, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2172)
      0.25 = coord(1/4)
    
    Abstract
    Thema der hier vorgestellten Arbeit ist der Wandel deutscher Allgemein - Enzyklopädien in Printform in den letzten 250 Jahren und seit Ende des 20. Jahrhunderts bzw. Anfang des 21. Jahrhunderts der Übergang in die virtuelle ( elektronische ) Form. Ferner werden Fachbegriffe aus dem Lexikonbereich definiert sowie die Typologie und die Angebotsformen aufgeführt. Des Weiteren werden zwei lexikalische Großprojekte des 18. / 19. Jahrhunderts skizziert Daran schließt sich die Geschichte der bekanntesten deutschen Lexikaproduzenten ( Schwerpunkt Brockhaus sowie Meyer und Herder ) sowie deren Produkte an. Davon ausgehend wird der Wandel bzw. die Veränderung in den Produkten im Laufe der Jahrzehnte geschildert. Drüber hinaus gibt es ein Blic ins Ausland was es da für lexikalische Konzepte gibt. Das Erwähnte bezieht sich überwiegend auf Print-Lexika. Nun gibt es einen totalen Umbruch die neuen Medien ermöglichen völlig neue Perspektiven. So werden in dieser Arbeit zwei Multimedia- Enzyklopädien ( CD- ROM / DVD ) vorgestellt. Diese Beispiele sollen zeigen was es alles für Möglichkeiten gibt. Auch die Nachteile werden nicht verschwiegen. Darauf folgt das andere wichtige neue Medium das Internet. In diesem Kapitel wird beschrieben wie man lexikalische Informationen aus dem Internet bekommen kann und worin die Vor- und Nachteile dieser Methode liegen. Am Schluss gibt es auch einen Blick auf die Konsequenzen für öffentliche und wissenschaftliche Bibliotheken. Die neuen Medien führen zu Überlegungen die traditionellen bzw. konventionellen Enzyklopädien nicht mehr zu kaufen. Das könnte eine jahrhundertealte Tradition beenden.
  15. Hildebrandt, J.; Beuth, P.: Macht Wikipedia schlau oder dumm? : die FR gibt Orientierungshilfen in der grenzenlosen Fundgrube (2010) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 4180) [ClassicSimilarity], result of:
          0.035476472 = score(doc=4180,freq=48.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 4180, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4180)
      0.25 = coord(1/4)
    
    Abstract
    Ist sie nun ein fehlerdurchsetzter Hort des irrelevanten Halbwissens - oder die zu recht erfolgreichste Sammlung von Texten, Bildern und Links des Internets? Acht Thesen zur Nutzung der Wikipedia und den Folgen.
    Content
    "Wissen wird in der Wikipedia schematisiert und in vorgegebene Formen gepresst, wie der Internet-Pionier Jaron Lanier kritisiert. JA: Frei gestaltete, multimediale, spielerische Websites könnten ein Thema möglicherweise viel besser erklären. Aber solche Seiten werden nicht wahrgenommen, denn Wikipedias Marktmacht ist schon gewaltig und wird durch die prominente Platzierung in den Ergebnissen aller Suchmaschinen noch weiter befördert. NEIN: Wer etwas wirklich verstehen will, dem reicht ein Text mit ein paar Grafiken oder Fotos zwar oft nicht aus. Lehrbücher sehen aber auch nicht anders aus. Dafür können die Links in den Wikipedia-Artikel auf ganz andere Arten von Dokumenten und Seiten führen. Wikipedia ist mehr als seine Artikel - die Quellen und Nachweise gehören auch dazu. Zudem muss eine Enzyklopädie ihre Inhalte formal ordnen, um schnell verständlich zu sein. Wikipedia fördert ein beschränktes, vereinheitlichtes Kollektivwissen, da schon Schüler für Referate damit recherchieren. JA: Die Gefahr besteht darin, dass Wikipedia durch Zusatzmaterial wie verlinkte Texte und Bilder eine gewisse Wissensfülle und -hoheit suggeriert. Wikipedia macht den Nutzer dadurch bequem - und schon Schüler verlernen, verschiedene Quellen zu vergleichen und kritisch zu hinterfragen. NEIN: Vereinheitlicht wird Wissen auch, wenn alle Schüler eines Bundeslandes dieselben Geschichts- oder Mathebücher benutzen sollen. Und wenn man Wikipedia als Konkurrent oder Nachfolger des Brockhaus im elterlichen Wohnzimmerregal ansieht, dann bietet Wikipedia dank der verlinkten Quellen sogar mehr weiterführende Inhalte für die Schüler.
    Manipulation in WP wird immer existieren, einfach, weil es so leicht ist. Das schafft ein Grundmisstrauen bei jeder Nutzung von WP. JA: Auch wenn keine Enzyklopädie vor Fehlern gefeit ist - Wikipedia ist durch seine leichte Zugänglichkeit und die vielen verschiedenen Autoren besonders gefährdet. Manche Fehler werden schnell verbessert, andere erst Wochen später oder überhaupt nicht. Der erfundene elfte Vorname von Karl-Theodor zu Guttenberg (2009) mag vergleichsweise harmlos sein, der Eintrag einiger "Borat"-Fans zu Kasachstan aus dem Jahr 2006 hingegen nicht ("Kasachstan größtes Land der Welt. Alle anderen Länder von kleinen Mädchen regiert."). Ein gedrucktes Lexikon kann man dagegen nicht umschreiben. NEIN: Die bisher durchgeführten Vergleichsstudien zeigen, dass in der Wikipedia nicht wesentlich mehr Fehler stecken als in anderen Enzyklopädien, etwa der Encyclopedia Britannica. Auch in der sind nicht alle Angaben korrekt. Ein Grundmisstrauen muss also sowieso vorhanden sein, so lange man nur eine Quelle benutzt. Wikipedia-Wissen ist gefiltertes und dadurch subjektives Second-Hand-Wissen, denn: Ein selbsternannter "Experte" hat dafür bestimmte Quellen ausgesucht und das für ihn Wichtigste zusammengefasst. JA: Vor allem die englischsprachige Wikipedia hat inzwischen Probleme, Autoren zu finden. Das Magazin Newsweek schreibt, dass sich erstmals mehr Autoren ab- als anmelden. Die Online-Enzyklopädie plant deshalb, Werber auszusenden, die neue Autoren an Land ziehen sollen. Auch in Deutschland erscheint bei sinkenden Autorenzahlen eine gleichbleibende Anzahl von Artikeln. NEIN: Die Zeit der Laien bei Wikipedia ist mehr oder weniger vorbei. Die Ansprüche der Community sind hoch. Ihre Mitglieder geben selbst zu, dass der Einstieg als Autor schwer geworden ist. Die "selbsternannten" Experten sind also in der Regel echte Experten. Und in alten Enzyklopädien war ein Redakteur oftmals gleich für mehrere Gebiete zuständig - während bei Wikipedia umgekehrt mehrere Experten an einem Thema arbeiten.
    Wikipedia transportiert nur einen Wissensausschnitt, da die meisten Autoren einer bestimmten sozialen Gruppe angehören (männlich, weiß) - zumindest die, die ihre Identität offenlegen. JA: Eine Online-Umfrage der Universität Würzburg ergab: Das Durchschnittsalter der deutschen Wikipedia-Autoren liegt bei 31 Jahren, 88 Prozent sind männlich, 25 Prozent studieren. Es ist also sehr wahrscheinlich, dass zumindest die Auswahl der Themen die Interessen und die Lebenswelt dieser Gruppe abbildet. NEIN: Die wichtigsten Kriterien eines Wikipedia-Artikels sind die Nachprüfbarkeit, Belegbarkeit und der Neutral Pont Of View (NPOV). Im Optimalfall verschwindet der Autor samt seiner Herkunft oder Gruppenzugehörigkeit hinter diesen Punkten. Dann wäre es egal, wie sich die Autorenschaft zusammensetzt. Außerdem hat jeder, der möchte, die Möglichkeit mitzuschreiben. Geringe Transparenz: Autoren dürfen anonym schreiben und werden von Wikipedia dazu noch ermutigt. JA: Wer anonym schreibt, hat weniger Hemmungen, Lügen, Beleidigungen und Meinungen zu verbreiten. Zu wissen, wer der Autor ist und die Möglichkeit, ihn zu kontaktieren, schafft Vertrauen in die Inhalte. Ein Schulbuch oder ein Lexikon ohne Autorennennung würde auch niemand kaufen. NEIN: Wikipedia will die persönlichen Daten seiner Autoren schützen. Für Wissens-Fragen oder Hinweise auf Fehler stehen die Diskussionsseiten, Mailinglisten, Chats, die Wikipedia-Auskunft und für viele Gebiete auch so genannte Redaktionen bereit, die ebenfalls per Chat kontaktiert werden können.
    Es wird unnötig, sich etwas zu merken, weil man es immer und überall bei WP nachsehen kann - ob per Smartphone oder per WikiReader. JA: Wer die Wikipedia mit sich trägt, glaubt, alle Fakten sofort zur Verfügung zu haben, wenn er sie braucht. Der WikiReader, ein handtellergroßes Gerät, das eine "stabile" Version der Enzyklopädie beinhaltet, ist besonders verführerisch, weil er keine Internetverbindung braucht, um die Wikipedia anzuzeigen. NEIN: Es gibt viele Situationen, in denen keine Zeit bleibt, etwas nachzuschlagen - erst recht nicht über eine Internetverbindung per Handy. Und nicht alles ist sofort per Stichwortsuche auffindbar. Zusammenhänge muss man weiterhin verstehen, um zu wissen, was man überhaupt nachschlagen kann. Wikipedia filtert Wissen, ordnet es dann aber nicht ein. Zahlreiche irrelevante Einträge, die es nie in eine gedruckte Enzyklopädie geschafft hätten (Andreas Türck, Mr. Spock) stehen gleichrangig neben wichtigen, historisch oder gesellschaftlich relevanten Themen. JA: Jaron Lanier warnt davor, dass die Realität als Bezugspunkt verloren gehe, wenn Figuren aus Fantasy-Romanen genau soviel Raum wie Menschen der Zeitgeschichte einnehmen. Dann könnten wir fiktive Personen mit realen verwechseln, glaubt er. NEIN: In einer Online-Enzyklopädie steht nichts neben- oder übereinander. Es gibt keine Hierarchie von Themen. Wie viel Platz ein Thema einnimmt, ist egal, wenn der Raum praktisch unendlich groß ist. Und zum Wissen der Welt gehört auch Fiktion. Eine Enzyklopädie, in der Mr. Spock gar nicht auftaucht, ist einer Ausgabe, in der die Figur beschrieben wird, deshalb unterlegen."
  16. Haubner, S.: "Als einfacher Benutzer ist man rechtlos" : Unter den freiwilligen Wikipedia-Mitarbeitern regt sich Unmut über die Administratoren (2011) 0.01
    0.008869118 = product of:
      0.035476472 = sum of:
        0.035476472 = weight(_text_:und in 4567) [ClassicSimilarity], result of:
          0.035476472 = score(doc=4567,freq=48.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.29991096 = fieldWeight in 4567, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4567)
      0.25 = coord(1/4)
    
    Content
    "Kaum etwas hat den Umgang mit dem Wissen der Welt so verändert wie Wikipedia. Die von Tausenden von freiwilligen Helfern erstellte Online-Enzyklopädie ist eine ein Jahrzehnt währende Erfolgsstory - ganz besonders in Deutschland. Mit rund 1,2 Millionen Artikeln ist die deutsche nach der englischen die zweitgrößte Wikipedia-Ausgabe. Laut der aktuellen Online Studie von ARD und ZDF haben fast 36 Millionen Deutsche schon einmal etwas im Internet nachgeschlagen. Fast drei Viertel der Internetnutzer ab 14 Jahren schauen zumindest ab und an mal bei Wikipedia vorbei. Wikipedia ist zu einem Giganten geworden, die Menge an Informationen ist unüberschaubar. Genau das wird immer mehr zu einem Problem. Nutzer, die nur eben mal kurz etwas nachschlagen wollen, sind häufig ernüchtert. In manchen Themenbereichen liest sich Wikipedia nicht mehr wie ein Volkslexikon, sondern wie eine in bestem Fachchinesisch verfasste Doktorarbeit. Ein Beispiel dafür ist der Artikel über den "Goldenen Schnitt". Dass sich dabei der größere Abschnitt einer Strecke zu dieser verhält wie der kleinere Abschnitt zum größeren, erklärt das gedruckte Meyers Taschenlexikon in zwei Sätzen. Wikipedia-Nutzer sehen sich einer Fülle von Formeln, Schaubildern und Diagrammen gegenüber. Einem Schüler, der sich über die Rolle des Goldenen Schnitts in der bildenden Kunst informieren möchte, schwirrt da bald der Kopf. Und im Abschnitt "Bildkomposition" er schließlich endgültig verunsichert. Weil der Artikel nicht hinreichend mit Belegen ausgestattet sei, würden einige Angaben möglicherweise demnächst entfernt. Eine zuverlässige Informationsquelle sieht anders aus.
    "Kann es sein, dass sich hier die reinen Fachidioten tummeln?", fragt ein Nutzer. "Warum schreibt hier niemand etwas davon, worum es wirklich geht?" Auf der zu jedem Artikel gehörenden Diskussionsseite wird mühsam um jeden einzelnen Satz gerungen. Welche Informationen sind wirklich wichtig? Gibt es dafür ausreichende Belege? Warum wurde ein bestimmter Absatz gelöscht und dafür ein anderer eingefügt? Und wer bestimmt überhaupt, was wissenswert ist und was nicht? Vollends unübersichtlich wird es, wenn abweichende Meinungen unversöhnlich aufeinanderprallen. So umfasst die Diskussion um die wissenschaftliche Belegbarkeit der Homöopathie mittlerweile 1,3 Millionen Wörter. Mit 11.400 Einzelbeiträgen, so erfährt der Nutzer auf der betreffenden Seite, handle es sich um die längste Diskussion über einen Artikel in der deutschsprachigen Wikipedia. Allein für das Lesen benötige man ohne Pausen etwa 143 Stunden. Kein Wunder, dass vielen potenziellen Mitarbeitern solche Grabenkämpfe auf Dauer zu anstrengend sind. Gerade einmal drei Prozent der Nutzer haben schon einmal selbst Artikel verfasst oder fremde überarbeitet. Der Anteil weiblicher Helfer hinkt dem der männlichen seit Jahren dramatisch hinterher. Dass viele Autoren bereits nach wenigen Beiträgen wieder im Heer der inaktiven Nutzer untertauchen, ist mittlerweile sogar Gegenstand einer internen Befragung.
    Nicht wenige von denen, die aus Frust nicht mehr dabei sind, machen dafür die Administratoren verantwortlich. Derzeit rund 300 "Admins" wurden von der Wikipedia-Gemeinschaft mit weiter gehenden Rechten ausgestattet, als sie der normale Nutzer hat. Um die Informationsflut einigermaßen zu kanalisieren, haben sich einige von ihnen recht rustikale Umgangsformen angewöhnt. Inhaltliche Auseinandersetzungen werden mit harten Bandagen und oft fragwürdiger Wortwahl ausgetragen. Wer die Relevanz eines von ihm verfassten Artikels nicht nachweisen kann, muss mit der Löschung des gesamten Beitrags rechnen. Wer dagegen Einspruch erhebt, wird barsch abgebügelt: Ganz Uneinsichtige müssen gar mit einer dauerhaften Sperrung rechnen: Das allgemeine Arbeitsklima und die Art und Weise, wie hier mit Leuten umgesprungen wird, ist absolut beklagenswert", sagt Dr. Klaus Graf, Historiker und Archivar an der Rheinisch-Westfälischen Technischen Hochschule in Aachen und seit 2004 aktiver Mitarbeiter an der Online-Enzyklopädie. Viele der Admins beherrschten die einfachsten Grundregeln im Umgang mit Menschen nicht. "Diese Leute leben bei Wikipedia ihre Allmachtsfantasien aus und glauben, sich alles herausnehmen zu können." Offenbar können sie das auch. "Als einfacher Nutzer", so Graf, "ist man vollkommen rechtlos und steht am Ende immer auf der Seite der Verlierer." Denn das Schiedsgericht, das man als letzte Instanz aufrufen kann, sei keineswegs neutral, sondern stehe fast immer geschlossen hinter den Admins, die sich wie "Oberlehrer" und "Blockwarte" gerierten.
    Das strukturelle Ungleichgewicht führt letztlich auch zu einem inhaltlichen. So strotzt Wikipedia geradezu vor Detailwissen zu historischen und modernen Kriegsschiffen - inklusive seitenlang ausgebreiteter technischer Details. Kultur- und Bildungseinrichtungen landen hingegen ziemlich schnell als "irrelevant" auf der Liste der "Löschkandidaten". Nach einer siebentägigen "Löschdiskussion" verschwinden sie im digitalen Orkus - inklusive der von den Autoren investierten Arbeitsstunden. "Wir mischen uns grundsätzlich nicht in redaktionelle Vorgänge ein", kommentiert Catrin Schoneville vom Förderverein Wikimedia Deutschland die Klagen enttäuschter Mitarbeiter. Selbstgerechtigkeit und rüpelhaftes Verhalten seien zudem keine auf Wikipedia beschränkte Phänomene, sondern ein Problem bei Diskussionen mit unterschiedlichen Auffassung überall im Internet. Die überwiegende Mehrheit der Autoren arbeite einfach mit und befasse sich nicht mit den Vorwürfen und der Nörgelei, die "immer wieder von dem gleichen kleinen Kreis von Kritikern geäußert würden. Auch ein Nachwuchsproblem sieht die Wikimedia-Sprecherin nicht: "Wir haben derzeit rund 7000 aktive Autoren in der deutschsprachigen Community. Bei einem freiwilligen Projekt liegt es in der Natur der Sache, dass das Engagement, mit dem sich jeder einzelne einbringt, variiert."
    Dennoch bemühe man sich, mit Förderprojekten und Workshops für mehr Motivation zu sorgen und neue Zielgruppen zu erschließen. So werde das Mentorenprogramm, in dessen Rahmen man sich von erfahrenen Autoren bei den ersten Schritten in der Wikipedia-Welt begleitet lassen kann, schon von 90 Prozent der Neueinsteiger angenommen. Stolz ist man bei Wikimedia auf das Projekt "Silberwissen", mit dem vor allem ältere Menschen angesprochen werden sollen. "Das Wissen älterer Generationen könnte Wikipedia bereichern und neue Perspektiven eröffnen", hofft Schoneville. Vielleicht wirkt sich diese Lebenserfahrung ja irgendwann einmal auch auf die in der Wikipedia-Gemeinde herrschenden Umgangsformen aus. Zu wünschen wäre es. Schließlich, und da sind sich ausnahmsweise einmal alle Beteiligten einig, gibt es zu Wikipedia mit seinen beinahe konkurrenz- weil kostenlosen Angeboten derzeit kaum echte Alternativen."
  17. Informationsdienst an Öffentlichen Bibliotheken der Bundesrepublik Deutschland (1986) 0.01
    0.008779978 = product of:
      0.035119914 = sum of:
        0.035119914 = weight(_text_:und in 1197) [ClassicSimilarity], result of:
          0.035119914 = score(doc=1197,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2968967 = fieldWeight in 1197, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1197)
      0.25 = coord(1/4)
    
    Content
    Enthält: Teil 1: Empfehlungen zur Organisation und zur Ausstattung // Teil 2: Auswahlliste zum Aufbau von Informationsbeständen sowie als Anlagen: 'Tätigkeiten im Auskunftsdienst' (=Arbeitshilfen zum Auskunftsdienst; 1) (8 S.); 'Auskunftsmittel: Charakterisierung und Typologie' (=Arbeitshilfen zum Auskunftsdienst; 2) (5 S.); 'Statistik im Auskunftsdienst' (=Arbeitshilfen zum Auskunftsdienst; 3) (3 S.)
    Footnote
    Aktualisierungen dazu in BuB für die folgenden ASB-Gruppen: A, G, E in BuB 40(1988) S.790-793 // H, K in: BuB 40(1988) S.991-992 // F, O in: BuB 41(1989) S.721-722 // R in: BuB 43(1991) S.82-88. - Neuausgabe des Teiles 2 als: 'Auswahlliste zum Auf- und Ausbau von Informationsbeständen in Öffenlichen Bibliotheken'. Berlin: Dbi 1993
  18. Herrmann, H.-J.; Weigel, U.: Wissen aus der 'digitalen Dose'? : Anmerkungen zur sozialwissenschaftlichen Datenbankwelt und zum Internet (1995) 0.01
    0.008779978 = product of:
      0.035119914 = sum of:
        0.035119914 = weight(_text_:und in 1308) [ClassicSimilarity], result of:
          0.035119914 = score(doc=1308,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2968967 = fieldWeight in 1308, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1308)
      0.25 = coord(1/4)
    
    Abstract
    Thema des Beitrages ist es, den Nutzen elektronische verfügbarer Informationsdienste (datenbanken, Internet) für die Klientel der Geschichtenerzähler auszuloten. Im Zentrum steht die Absicht, einen Überblick der aktuell nutzbaren Quellen zu geben. Fragen im Hinblick auf den bedarf dieser Klientel und deren Probleme mit der Nutzung verfügbarer Quellen werden gestreift, wobei man es im deutschsprachigen Raum mit einer sehr unsicheren Datenlage zu tun hat. Ferner werden Medientrends und aktuelle Entwicklungen in den Netzwelten mit ihren möglichen Implikationen für die Fachkommunikation behandelt. Der Fachdisziplin wird empfohlen, sich diesen Welten nicht zu entziehen, sondern sie für die Informationsversorgung aktiver als bislang zu nutzen
  19. LexiROM : Nachschlagen auf ganz neue Art (1996) 0.01
    0.008779978 = product of:
      0.035119914 = sum of:
        0.035119914 = weight(_text_:und in 5988) [ClassicSimilarity], result of:
          0.035119914 = score(doc=5988,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2968967 = fieldWeight in 5988, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5988)
      0.25 = coord(1/4)
    
    Abstract
    Multimediale Wissensbibliothek mit Standardwerken aus unterschiedlichen Wissensgebieten mit Bildern, Virdeoclips von bedeutenden Ereignissen, original Tondokumenten und Animationen
    Content
    Meyers Lexikon in 3 Bänden; DUDEN - die deutsche Rechtschreibung 21. Aufl.: Auf der Grundlage der neuen Rechtschreibung 20. Aufl.: Die bisherigen Regeln und Schreibungen; DUDEN - das Fremdwörterbuch; DUDEN - die sinn- und sachverwandten Wörter; Weltatlas (rd. 60 Karten); Langenscheidts Taschenwörterbuch Englisch. - Insgesamt: 450.000 Stichwörter u. über 2.000 Abb., Tabellen u. Infografiken. Mit Ton, Video, Animationen
  20. Bertelsmann Discovery : das große Universallexikon auf CD-ROM (1996) 0.01
    0.008779978 = product of:
      0.035119914 = sum of:
        0.035119914 = weight(_text_:und in 426) [ClassicSimilarity], result of:
          0.035119914 = score(doc=426,freq=6.0), product of:
            0.118290015 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.05337113 = queryNorm
            0.2968967 = fieldWeight in 426, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=426)
      0.25 = coord(1/4)
    
    Content
    Basis ist ein 20bändiges Lexikon; rund 2.400 erläuternde Fotos u. Grafiken; ca. 300 tabellarische Übersichten; über 100 interaktive geographische u. thematische Karten; 68 Ausschnitte von Reden bekannter Personen im Originalton; Musikbeispiele von 15 Instrumenten und 49 Werken großer Komponisten; 27 Nationalhymnen; 27 Tierstimmen vom Amsel- bis zum Walgesang; 21 Videos zeigen Ereignisse der Zeitgeschichte und Glanzstücke der Filmgeschichte; 27 kommentierte Diashows für Kunstepochen und Planetensysteme; 15 Animationen erläutern technische Vorgänge

Years

Languages

  • d 604
  • e 29
  • More… Less…

Types

  • a 453
  • i 85
  • el 73
  • m 66
  • x 34
  • s 9
  • r 3
  • b 2
  • ? 1
  • fi 1
  • h 1
  • z 1
  • More… Less…

Subjects

Classifications