Search (4748 results, page 192 of 238)

  • × year_i:[2000 TO 2010}
  1. Gernert, J.: Vorsicht Ente! : Wikipedia (2009) 0.01
    0.0076882113 = product of:
      0.030752845 = sum of:
        0.030752845 = weight(_text_:und in 3633) [ClassicSimilarity], result of:
          0.030752845 = score(doc=3633,freq=36.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25991005 = fieldWeight in 3633, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3633)
      0.25 = coord(1/4)
    
    Content
    "Karl ist richtig. Theodor, Maria und Nikolaus stimmen. Auch Johann, Jakob, Philipp, Franz und Joseph sind korrekt, selbst der etwas exotische Sylvester. Nur Wilhelm war falsch. Den Wilhelm hatte ein Spaßvogel dem neuen Bundeswirtschaftsminister angedichtet - im Wikipedia-Eintrag über Karl-Theodor zu Guttenberg. Das wäre wohl kaum aufgefallen, hätten nicht etliche seriöse Medien, darunter Bild, taz und Spiegel Online, den falschen Wilhelm einfach abgeschrieben. Sie hatten vergessen: Wenn jeder, der will, an einem Lexikon mitarbeiten kann, kommt eben nicht nur ein riesiges, weit verästeltes Wissensnetz heraus, sondern auch so mancher Unfug. Vandalismus nennt man es bei Wikipedia, wenn Einträge mutwillig verunstaltet werden. Jimmy Wales, Gründer der Internet-Enzyklopädie, musste sich kürzlich über einen anderen Fall ärgern, als zwei vollkommen lebendige US-Senatoren bei Wikipedia plötzlich als tot galten. Mit einem anständigen Prüfsystem hätte der Unsinn vermieden werden können, schimpfte Wales.
    Das Interessante ist: Die deutschsprachige Version von Wikipedia hat schon im Mai 2008 begonnen, eine kollektive Kontrollinstanz aufzubauen. Seitdem gibt es Aufpasser, die Artikel überprüfen und Schmierereien entfernen. Sie heißen Sichter. Gut 6000 von ihnen haben die mehr als 863000 deutschen Wiki-Einträge bisher mindestens ein Mal gesichtet. Beiträge, in denen ihnen kein Vandalismus aufgefallen ist, werden mit einem gelben Auge gekennzeichnet. Das Siegel ist ein minimaler Qualitätsnachweis. Es signalisiert vor allem: Auf den ersten Blick ist mit diesem Text alles in Ordnung. Wenn das Sichter-Prinzip sich bewährt, könnte der nächste Schritt folgen. Dann würden die gesichteten Versionen inhaltlich geprüft. Doch auch die Sichter sind nicht per se Experten, sie rekrutieren sich aus den Wiki-Autoren: Wer Sichter werden will, muss 300 Einträge bearbeitet haben, mehr als zwei Monate dabei sein und darf noch nie wegen Regelverstößen gesperrt worden sein. "Es gibt kein langes Einstellungsprozedere", sagt Catrin Schoneville, Sprecherin von Wikimedia, dem Verein, der die deutsche Ausgabe finanziell unterstützt. "Das Ganze basiert ja darauf, dass möglichst viele User ihre Zeit investieren, um die Qualität hochzuhalten." Zu den Erfolgen der ausgewählten Sichter zählt bisher, dass sie im Eintrag zu Bielefeld die Zahl der Sitzplätze des Stadions um ein paar hundert korrigiert und bei der "Tomate" klargestellt haben, dass sie kein Obst ist. In dem Fall war es die achte Sichtung binnen Wochen. Einmal musste gelöscht werden, dass Tomaten "dumme niedrige unintelligente Geschöpfe mit unsensiblen Gefühlen" sind. Um solchen Unsinn, aber auch PR-Eingriffe auszubremsen, laufen schon seit 2003 in den Foren der Wikipedia-Gemeinschaft die ersten Diskussionen über "stabile Versionen": Einträge, auf die sich die Nutzer verlassen können. Jimmy Wales hatte das explizit für die deutsche Wikipedia vorgeschlagen. Deren Niveau galt als vorbildhaft.
    "Das einzuführen, hat dann einige Jahre gedauert", sagt Schoneville, "weil das Thema sehr kontrovers diskutiert wurde." Die Wikipedianer versuchen nicht nur bei einzelnen Artikeln, sondern auch bei grundsätzlichen Entscheidungen, sich zu einigen, indem sie in aller Ruhe und sehr ausführlich Pro und Kontra abwägen. Kontra hier: Ein rigides Kontrollsystem, bei dem wichtige Artikel von verlässlichen Mitgliedern permanent überwacht werden, wie es Wales vorschwebt, könnte neue Autoren abschrecken. Der Reiz an Wikipedia liege eben darin, dass jeder einfach mitschreiben kann. Was dabei herauskommt, ist beachtlich: Im Laufe der recht jungen Wikipedia-Geschichte zeigten verschiedene Untersuchungen, dass sowohl Brockhaus als auch Britannica nicht unbedingt besser sind als die Online-Enzyklopädie. Im führenden Wissenschaftsmagazin Nature erschien 2005 eine Studie, die bei Britannica-Artikeln im Durchschnitt drei und bei Wikipedia vier Fehler zählte - ein erstaunlich geringer Unterschied. Der Stern verglich den Netz-Auftritt von Brockhaus mit Wikipedia - und gab der selbstgemachten Enzyklopädie viel bessere Noten. Ihr großer Vorteil: Sie war fast immer aktueller. Allein bei der Verständlichkeit lag der Brockhaus vorn. Zwischenzeitlich schien es sogar, als habe die Online-Enzyklopädie die kiloschweren Bände nach 200 Jahren vom Markt gedrängt. In ihrer Wucht wirkten die zwar verlässlich, aber viel zu behäbig. Der gedruckte Brockhaus, hieß es, werde eingestellt und nur noch in digitaler Form vertrieben werden. Inzwischen hat der Lexikonverlag klargestellt, dass darüber noch nicht entschieden sei. Die Verkaufszahlen sind stark gestiegen, als die Nachricht von der Einstellung der Printausgabe erst einmal in der Welt war.
    Gleichzeitig passierte etwas ganz anderes: Zum ersten Mal in ihrer Geschichte erschienen Auszüge aus Wikipedia in gedruckter Form. Eine Bertelsmann-Tochter veröffentlichte in einem Jahrbuch die Einträge zu den 50000 meistgesuchten Begriffen. Sechs Redakteure prüften das Ganze vorher auf Fehler und Unstimmigkeiten.Wenn stimmt, was die Studien nahelegen, dürfte ihnen nicht viel aufgefallen sein. Denn die mehr als 500000 deutschen Wikipedia-Autoren sind keineswegs durchweg unqualifizierte Laien - es gibt auch Experten, Fachredakteure und Lektoren bei Wikipedia. Nur nennen sie sich nicht unbedingt so und werden - anders als die Kollegen bei den Lexikonverlagen - eben nicht bezahlt. Als Sebastian Moleski, der heute Wikimedia-Geschäftsführer ist, vor fünf Jahren begann, das Online-Lexikon um einzelne Zusatzartikel der US-Verfassung zu erweitern, ging es noch darum, die größten Wissenslücken zu füllen. Die Aufgabe der Wikipedianer hat sich seitdem gewandelt. Jetzt, da es Einträge zu hunderttausenden Stichworten gibt, bekommt das Aktualisieren die größte Bedeutung. Mancher recherchiert immer noch wochenlang ein Thema, besucht Bibliotheken, ruft Experten an, fasst das alles in einem Text zusammen. Genauso wichtig sind nun aber Freiwillige, die per Software nach Rechtschreibfehlern suchen, dubiose Sätze verifizieren oder Einträge auf den neuesten Stand bringen. Auf Listen können sie sehen, was an Artikeln, für die sie sich interessieren, gerade geändert worden ist. Die Seite zu Angela Merkel beispielsweise haben sehr viele auf ihrer Liste: Würde jemand die Bundeskanzlerin zu Angela Marie-Luise Merkel machen, bliebe sie das wahrscheinlich keine 60 Sekunden. Auch der zusätzliche Wilhelm im Namen des neuen Wirtschaftsministers wurde auf der Wikipedia-eigenen Diskussionsseite schnell angezweifelt - aber nicht sofort gelöscht. In Deutschland, der Schweiz und Österreich scheint Gründlichkeit den Wikipedianern nun seit einer Weile wichtiger als Wachstum. Die Zahl der neuen Beiträge hat abgenommen. Bald könnte die französische die deutsche Version als zweitgrößte weltweit ablösen - dafür aber stammen aus Deutschland die Qualitätsverbesserungen, die sich künftig auch in England, Holland und Frankreich durchsetzen könnten. "Vielleicht sind wir ein Volk von Besserwissern", hat Moleskis Vorgänger einmal gesagt. Und Jimmy Wales stellt fest: Auch wenn es wie ein Klischee klinge - "die Deutschen setzen auf Genauigkeit und Qualität"."
  2. Früh, T.: Wie arbeitet das Gehirn eines Rechenkünstlers? (2001) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 6923) [ClassicSimilarity], result of:
          0.030684428 = score(doc=6923,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 6923, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6923)
      0.25 = coord(1/4)
    
    Content
    Jetzt haben belgische und französische Forscher um den Neuropsychologen Mauro Pesenti von der Katholischen Universität von Louvain den Versuch unternommen, Gamms fabelhafte Leistungen zu enträtseln. Dazu verglichen sie seine Hirnaktivität beim Kopfrechnen mit derjenigen von sechs Personen mit durchschnittlichem Rechentalent (Nature Neuroscience, Bd. 4, S. 103). Für den Test bereiteten die Forscher Aufgaben vor, die auf beide Leistungsniveaus Rücksicht nahmen. Dann baten sie die Kandidaten zum Kopfrechnen im Akkord: Ein Bildschirrn präsentierte die erste Aufgabe; sobald der Proband das Ergebnis richtig aufsagte, erschien die nächste Frage, und so fort Währenddessen machten die Forscher mit der Positronenemissionstomografie, einer Schwester der Computertomografie, die räumlichen Muster der Hirnaktivität sichtbar. Zunächst fanden sie ihre Vermutung über das Arbeitsgedächtnis bestätigt: Bei allen Probanden leistete es Schwerstarbeit. Das galt besonders für jenen Bereich, der sich mit der Zwischenspeicherung räumlich-visueller Informationen beschäftigt; Himforscher nennen ihn den "räumlich-visuellen Notizblock". Dieser Befund ist insofern bemerkenswert, als Zahlen an sich keine räumlich-visuelle Qualität haben. Eine Neuronengruppe, die gewöhnlich immer dann aktiv wird, wenn wir unsere Finger bewegen, lief ebenfalls heiß. Offensichtlich hinterlässt die frühkindliche Art des Zählens und Rechnens Spuren im Gehirn: Die gleichen Neuronen, die damals beansprucht wurden, beteiligen sich auch an den Rechenleistungen des Erwachsenen. Doch aufschlussreicher als die Gemeinsamkeiten waren die Unterschiede, die in den Gehirnen der Probanden zum Vorschein kamen: Bei Gamm zeigten fünf weitere Hirnareale, die bei den durchschnittlichen Rechentalenten untätig waren, einen kräftig erhöhten Aktivitätspegel. Sie zählten vorwiegend zum Langzeitgedächtnis, und zwar zu jenem Teil, der Episoden speichert, zum Beispiel eine Szene in einem Restaurant. Wenn wir uns an das köstliche Menü erinnern, dann kommt uns auch rasch wieder in den Sinn, was sich sonst noch während des Essens, aber auch davor und danach ereignete. Das episodische Gedächtnis bettet Vergangenes immer in einen raum-zeitlichen Zusammenhang ein. Nun beruhen Gamms Fähigkeiten nicht zuletzt auf hartem Training. Seit er sich vor einigen Jahren erstmals für eine Fernsehshow bewarb, hat er täglich stundenlang Zahlenwissen und Rechenregeln gepaukt. Dabei hat er sein Langzeitgedächtnis offenbar zu einer gut bestückten und wohl sortierten Spezialbibliothek ausgebaut. Nach eigenem Bekunden strukturiert er den Dschungel der Zahlenwelt mit Hilfe visueller Vorstellungen. Auf diese Weise gelingt es ihm, das raumzeitliche Ordnungsprinzip des episodischen Gedächtnisses zu nutzen. Damit kann er bei Bedarf schnell auf einzelne Fakten zugreifen
  3. nr: Nur 57 Prozent der Manager kennen und verstehen den Begriff : Wissensmanagement wenig verbreitet (2001) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 592) [ClassicSimilarity], result of:
          0.030684428 = score(doc=592,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 592, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=592)
      0.25 = coord(1/4)
    
    Content
    "Trotz einer schier unüberschaubaren Menge an Veröffentlichungen kann bei weitem noch nicht jeder Manageretwas mit dem Begriff Wissensmanagement anfangen. Wie der aktuelle Report des Hernstein International Management Instituts (Wien) ergab, haben nur 79 Prozent der Führungskräfte in deutschen, österreichischen und schweizerischen Unternehmen den Begriff überhaupt schon einmal gehört. Von diesen haben wiederum lediglich 72 Prozent auch eine korrekte Vorstellung von dessen Inhalt. Dies bedeutet, daß nur 57 Prozent der Befragten den Begriff Wissensmanagement - Regelungen, die das Wissen des einzelnen Mitarbeiters zum Wissen des gesamten Unternehmens machen - kennen und richtig verstehen. Die übrigen Befragten machten falsche Angaben (beispielsweise "alle Informationen in Datenbanken speichern"). Recht erhebliche Unterschiede zeigten sich hinsichtlich der Verbreitung des Begriffs zwischen den betrachteten Ländern. Während in Österreich 69 Prozent der Führungskräfte den Begriff Wissensmanagement schon einmal gehört haben, sind dies in Deutschland 80 und in der Schweiz gar 92 Prozent. Nur 47 Prozent der Manager in Österreich können, für sich in Anspruch nehmen, den Begriff zu kennen und richtig zu verstehen, in Deutschland liegt dieser Wert bei 59, in der Schweiz bei 72 Prozent. Obwohl 40 Prozent der Führungskräfte die Bedeutung von Wissensmanagement als hoch einschätzen, gaben nahezu drei Viertel der Befragten an, keine entsprechenden systematischen Maßnahmen im eigenen Unternehmen umzusetzen. Hierbei zeigten sich deutliche Branchenunterschiede: Im Finanzsektor verfügen 54 Prozent der Unternehmen über Wissensmanagement, in der Tourismusbranche lediglich 13 Prozent. Im Ländervergleich lag wiederum die Schweiz vorn: 41 Prozent der Führungskräfte setzen dort Wissensmanagement ein, im Vergleich zu 26 Prozent der deutschen Manager und 20 Prozent der Führungskräfte in Österreich. Allerdings schaffen die Österreicher, wenn sie Wissensmanagement einführen, häufig auch gleich den entsprechenden organisatorischen Rahmen Während 41 Prozent der Unternehmen in der Schweiz, die Wissensmanagement praktizieren, hierfür auch eine verantwortliche Stelle eingerichtet haben, lag dieser Anteil in Österreich bei 67 Prozent und in Deutschland bei 48 Prozent."
  4. Heiner-Freiling, M.: Dewey in der Deutschen Nationalbibliographie? (2002) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 2419) [ClassicSimilarity], result of:
          0.030684428 = score(doc=2419,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 2419, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2419)
      0.25 = coord(1/4)
    
    Abstract
    Betrachtet man die derzeitige Struktur der Deutschen Nationalbibliographie, des Schweizer Buchs und der Österreichischen Nationalbibliographie, so zeigt sich ein recht heterogenes Bild. Die Schweizerische Landesbibliothek hat sich für ihr nationalbibliografisches Verzeichnis 2001 zu einer Umstellung entschlossen, die einem internationalen Trend folgt: circa 50 % aller Nationalbibliografien weltweit untergliedern ihre Grundverzeichnisse auf der Basis der Dewey Decimal Classification (DDC), zum Teil nur grob nach größeren Sachgebieten, innerhalb derer die einzelnen Titel in alphabetischer Reihenfolge angezeigt werden, zum größeren Teil konsequent in der Reihenfolge der vollständigen DDC-Notationen. In Österreich hält man an einer bis 1981 auch im Wöchentlichen Verzeichnis der damaligen Deutschen Bibliographie verwendeten Gliederung in 24 Hauptgruppen mit einigen Untergruppen fest. In der Bundesrepublik hatte man sich 1982 auf Grund des gestiegenen Literaturaufkommens und differenzierterer Benutzerwünsche zu einer Umstellung auf 65 Sachgruppen entschlossen, die in der Anordnung, aber nicht in ihrer Struktur der Universalen Dezimalklassifikation folgen. Die Deutsche Bibliothek plant eine Umstellung der Sachgruppen für ihre Wöchentlichen Verzeichnisse im Vorlauf zu der voraussichtlich ab 2005 erfolgenden kompletten DDC-Erschließung, worunter eine Vergabe vollständiger synthetisierter DDC-Notationen (unter Einbeziehung der Schlüsselungen der DDC über die sogenannten Hilfstafeln) zu verstehen ist. Voraussetzung dafür ist das Vorliegen einer deutschsprachigen DDC-Ausgabe und einer darauf basierenden Datenbank, die als deutsche Version von WebDewey allen DDC Anwendern zur Verfügung steht - Arbeitsinstrumente, mit deren Fertigstellung erst nach Ablauf des im Oktober 2002 beginnenden DFG-Projekts DDC Deutsch zu rechnen ist. Bis dahin erfolgt eine Zuordnung der Titel nur zu den etwa 100 DDC Sachgruppen und auch für die weitere Zukunft ist daran gedacht, schon aus Gründen der Personalkapazität nicht für alle Titel die aufwändigere vollständige Erschließung zu leisten. So kämen insbesondere solche Publikationen, die im internationalen Kontext nicht von Interesse sind, auch auf längere Sicht nur in den Genuss der groben DDC-Sachgruppe, also z. B. nicht-wissenschaftliche Publikationen wie Kinder- und Jugendliteratur, Schulbücher und weite Bereiche der Populärliteratur. Genaue Kriterien für diese Auswahl sind in den nächsten Jahren in Zusammenarbeit mit Bibliotheken und Buchhandel, aber auch im Kontakt mit der internationalen "DDC Community" zu entwickeln. Bei größerer Vertrautheit mit der DDC auf Seiten der klassifizierenden wie der recherchierenden deutschsprachigen Nutzer könnte der Anteil der komplett erschlossenen Literatur schrittweise ausgebaut werden.
  5. Jünger, G.: ¬Ein neues Universum (2003) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 2553) [ClassicSimilarity], result of:
          0.030684428 = score(doc=2553,freq=56.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 2553, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2553)
      0.25 = coord(1/4)
    
    Content
    Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
    - Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
    - Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
    - Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
    - Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
  6. Endres, A.; Fellner, D.W.: Digitale Bibliotheken : Informatik-Lösungen für globale Wissensmärkte (2000) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 2834) [ClassicSimilarity], result of:
          0.030684428 = score(doc=2834,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 2834, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2834)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in BuB 53(2001) H.5, S.340 (D. Lewandowski): "Leider gibt es aber auch viele negative Seiten anzuführen: Das Verständnis der Autoren ist ein rein naturwissenschaftlich-technisches, was schon am Untertitel des Buches deutlich wird. Die Welt des Wissens scheint nur aus Natur-, Ingenieur- und Wirtschaftswissenschaften zu bestehen; sonstige Gesellschaftswissenschaften und der gesamte Bereich der Geisteswissenschafteii bleiben ausgeklammert." - "Der weitaus größte Mangel des Buches liegt jedoch in dem hier ausgedrückten Verständnis des Bibliothekswesens. In weiten Teilen entsteht der Eindruck, der momentan stattfindende Wandel befähige nun die Ingenieure, den Bibliothekaren zu erklären. wie sie ihre Arbeit richtig zu machen hätten. Bibliotheken werden durchgehend als überkommene Einrichtungen ohne Dienstleistungsverständnis angesehen. Bibliothekare hätten die Tendenz, sich an den Inhalten auszurichten, während Informatiker gute Lösungen liefern sollen, indem sie sowohl technische als auch nicht-technische Fragen beantworten. Geradezu zynisch ist es, wenn die Bibliothekare, die im Verlauf desTextes weitgehend als außenstehend behandelt wurden, auf einer der letzten Seiten doch noch zur Mitarbeit eingeladen werden. Dabei scheint diese Mitarbeit dringend nötig, da die Autoren bereits mit grundlegenden Begriffen und Aufgaben ihre Probleme haben: So durchsuchen nach ihrer Meinung WWW-Suchmaschinen Schlagworte, große Öffentliche Bibliotheken lagern ihre Bestände durchweg in Magazinen (gemeint sind die UniBibliotheken), und die Langzeitarchivierung scheint kein allzu großes Thema zu sein. Digitale Bibliotheken werden als Wirtschaftsbetriebe angesehen, die beispielsweise von Fachgesellschaften betrieben werden; in diesem Zuge wird der Gedanke eines freien Zugangs zu Informationen geopfert. Durch die gravierenden Mängel auf der Reflexionsebene und bei genuin bibliothekarischen Fragestellungen leistet das Buch nicht das, was es eigentlich hätte leisten können: eine umfassende, kompetente Darstellung des gesamten Themas. Vielleicht hätte das realisiert werden können, wenn man noch einen Fachmann/eine Fachfrau aus dem Bibliothekswesen mit zum Antorenteam dazu genommen hätte." - ZfBB 48(2001) H.3/4, S.248 (U. Rosemann: "Ein sehr lesenswertes Buch: Basisinformationen werden fundiert und leicht verständlich erläutert und Optionen für die Zukunft der Bibliotheken aufgedeckt. Das dabei die Autoren nicht immer nur freundlich mit den Bibliothekaren umgehen, überrascht nicht, wenn man weiß, wie häufig Informatik-Professoren konventionelle Bibliotheken nutzen. So reflektiert das Buch letztlich die Herausforderungen,vor denen alle Bibliotheken stehen"). - nfd 52(2001) H.6, S.366-367 (T. Mandl)
  7. Körnig, S.: Workshop zu Konzepten für die Digitale Bibliothek (2003) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 3011) [ClassicSimilarity], result of:
          0.030684428 = score(doc=3011,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 3011, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3011)
      0.25 = coord(1/4)
    
    Abstract
    Betrachtet man die neuere Entwicklung im DL-Bereich, so kann man feststellen, dass sie von Innovationsschüben gekennzeichnet ist. Diese Innovation betrifft nicht nur die technische Entwicklung. Im Bereich der dokumentbezogenen Formate haben sich mit der XML-Sprachfamilie mächtige Werkzeuge etablieren können, die neue Perspektiven für die Bereitstellung, Nutzung oder Verbreitung fachwissenschaftlicher Information versprechen. Dennoch hat die erwartete Umwälzung (noch) nicht stattgefunden. Ein Grund hierfür ist, dass übergreifende Konzeptionen für den Einsatz dieser neuen Möglichkeiten bisher fehlen. Vor diesem Hintergrund wurde am 6. Oktober 2003 zu einem Workshop unter dem Titel "Digital Library Konzepte" in Die Deutsche Bibliothek geladen. Ausgerichtet wurde dieser Workshop im Rahmen des Kompetenznetzwerks "Neue Dienste, Standards und Metadaten", einer Initiative des Bundesministeriums für Bildung und Forschung (BMBF). Dieses Kompetenznetzwerk zielt darauf, durch konkrete Projektarbeit sowohl die Basis als auch die Werkzeuge für innovative Dienste zu schaffen. Hierunter darf man sich nicht den Aufbau eines "Zentrums" vorstellen, vielmehr wird von der grundlegenden Überzeugung ausgegangen, dass sich derartige Kompetenz über eine Projektarbeit dokumentiert, bei der in einem definierten Zeitraum konkrete Ziele angestrebt und umgesetzt werden. Entsprechend dieser Grundüberzeugung wurde der Workshop von einem Teilprojekt des Kompetenznetzwerks ("Generische Portale", Arbeitsgruppe telos an der TU Darmstadt unter der Leitung von Prof. Dr. Rudi Schmiede) vorbereitet und organisiert. Der Workshop richtete sich an die Fachöffentlichkeit der wissenschaftlichen Nutzer, die Betreiber von Diensten im Bereich der Fachinformation, an die Entwickler von Digital Library Konzepten und an weitere Personenkreise, die sich mit den Strategien zur künftigen Gestaltung von "Web Services" befassen. Entsprechend kamen die ca. 50 Teilnehmer aus den unterschiedlichen Einrichtungen, die für diesen Themenkreis relevant sind - Bibliotheken, Institute, im Bibliotheksbereich aktive Firmen, öffentliche und privatwirtschaftliche Fachinformationseinrichtungen. Dieser eintägige Workshop war, mit dem Blick auf künftige Perspektiven, auf vier Themenfelder ausgerichtet: aktuelle Entwicklungen im Bereich der Metadaten, Prozesse der Standardisierung, der neuere "Web Services" Standard des W3C, sowie der Aufbau von Peer-to-Peer-Netzwerken für die Wissenschaft als ein Beispiel für die Bereitstellung innovativer Dienste im Bereich der elektronischen Fachinformation.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.8, S.487-489
  8. Die Deutsche Bibliothek: Informationen der Arbeitsstelle für Standardisierung und der Zentralen bibliografischen Dienstleistungen (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 3433) [ClassicSimilarity], result of:
          0.030684428 = score(doc=3433,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 3433, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3433)
      0.25 = coord(1/4)
    
    Content
    "Erschließung von E-Mail-Newslettern Die Deutsche Bibliothek veröffentlicht auf ihrer Website die in der Expertengruppe Online-Ressourcen erzielten Verabredungen zur Erschließung von E-Mail-Newslettern. <urn:nbn:de:1111-2004072172> http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:1111-2004072172 E-Mail-Newsletter werden per E-Mail an registrierte Abonnenten verschickt. Es gibt verschiedene Varianten von E-Mail-Newslettern, die betrachtet wurden, solche - mit Webarchiv, in dem die E-Mail-Texte ebenfalls zur Verfügung stehen, - mit Web site, die ausschließlich Informationen und Registrierung anbietet, - die nur über E-Mail-Subskription erhältlich sind, - die nur auf Bibliotheksservern lokal zugänglich sind. Um für diese spezielle Online-Publikationsform zügig MAB-konforme verbundeinheitliche Regelungen zu treffen, konnte bei den Beratungen nicht die Frage im Vordergrund stehen, welche Netz-Publikationen in wissenschaftlichen Bibliotheken grundsätzlich als sammelwürdig oder sammelpflichtig erachtet werden. Die veröffentlichten Verabredungen, wann die Angabe der E-Mail-Subskriptionsadresse sinnvoll ist und welche MAB-Indikatoren gewählt werden sollten, sind von der Expertengruppe Online-Ressourcen und der Arbeitsgemeinschaft der Datenbankteilnehmer der Zeitschriftendatenbank (AGDBT) verabschiedet worden. Der Standardisierungsausschuss hat in einem Umlaufverfahren im April 2005 seine Zustimmung zur Veröffentlichung und Inkraftsetzung gegeben.
    RSWK-Ergänzungslieferung Die Deutsche Bibliothek hat die 3. RSWK-Ergänzungslieferung zur 3. Auflage der "Regeln für den Schlagwortkatalog (RSWK)" veröffentlicht - zum ersten Mal auch in elektronischer Form http://www.ddb.de/professionell/pdf/rswk_erg_3.pdf Die Ergänzungslieferung enthält u. a. Änderungen an den § 8,2 (hier wurde die Priorisierung der Individualnamen zu Ungunsten der Allgemeinbegriffe aufgehoben), § 12,8 (Wegfall der Pauschalverweisungen), § 701 (durch eine neue Darstellung der Hinweissätze sind auch die Mundarten betroffen) sowie § 730 (Bauwerke). Nach einem im Sommer 2004 durchgeführten öffentlichen Stellungnahmeverfahren, für das die vorgesehenen Entwürfe auf dem FTP-Server Der Deutschen Bibliothek zur Verfügung standen, und einer Beratung in der Expertengruppe RSWK-SWD hat der Standardisierungsausschuss die 3. RSWK-Ergänzungslieferung mit den o. g. Neuregelungen genehmigt. Sie können die Papierausgabe der 3. RSWK-Ergänzungslieferung zur 3. Auflage des Grundwerks RSWK zum Preis von EUR 13,00 (zuzüglich Porto) beziehen über: Die Deutsche Bibliothek, Zentrale bibliografische Dienstleistungen, Adickesallee 1, 60322 Frankfurt, Fax: 069/15 25-16 36, E-Mail: [email protected]. Das Grundwerk sowie die 1. und 2. Ergänzungslieferung zur 3. Auflage der Regeln für den Schlagwortkatalog sind ebenfalls über Die Deutsche Bibliothek zu beziehen."
  9. Schmidt, A.P.; Rössler, O.E.: ¬Ein neues Papier für die Welt : Medien(r)evolutionen auf dem Weg zur Menschwerdung (2003) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 3443) [ClassicSimilarity], result of:
          0.030684428 = score(doc=3443,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 3443, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3443)
      0.25 = coord(1/4)
    
    Abstract
    Die Erfindung der Sprache war die erste Medien(r)evolution der Menschheitsgeschichte. Sie fand in zwei Stufen statt. Die erste Stufe war die Menschwerdung in der Familie, ausgehend von der Mutter-Kind-Dyade. Die zweite Stufe war eine (R)evolution, deren Brisanz wir uns heute kaum mehr vorstellen können. Was zuvor auf die emotionale Zuwendung und Opferbereitschaft im engsten Kreis beschränkt war, wurde auf einmal wie ein Handschuh externalisiert. Alle durften an den subtilsten Nuancen, die ursprünglich im kleinsten Kreis auf intimer Basis entstanden waren, teilnehmen, und an dem großen Teppich weiterarbeiten und an seiner Schönheit und Heiligkeit beitragen. Sprachwissenschaftler wissen, daß jede Sprache ein metaphysisch unendlich wertvolles Objekt darstellt. Der Spruch "Der liebe Gott" hat viele Tiere und Pflanzen gemacht und viele partielle Differentialgleichungen" (Ulrich Wais) bedarf der Ergänzung: "Und viele Sprachen". Gemeint ist in allen drei Fällen, daß beliebig viele Forscherleben in jede der genannten Spezies investiert werden können, ahne daß die Majestät des betreffenden Forschungsgegenstandes dabei im geringsten an Bedeutung verlöre. Die zweite Medien(r)evolution war nicht die Schrift, obwohl natürlich die Erfindung des Buches natürlich mit der Erfindung der DNS vergleichbaren Evolutionsfortschritt darstellt. Man muß auch sehen, daß durch das Internet diese Erfindung wieder in Gefahr gerät, da am Buch das wichtigste seine Verfügbarkeit auf nahezu unbegrenzte Zeit an vielen in ihrem Überleben voneinander vollständig entkoppelten Orten. Diese Eigenschaft teilt das Buch mit der Sprache. Das Internet hat sie verloren. Aber wir sprechen hiervon einer anderen Artvon (R)evolutionen. Die eigentliche (R)evolution der Sprache war, wie gesagt, nicht ihr Beitrag zu neuen Farm der Informationserhaltung wie meist angenommen wird, sondern ihr Öffnen eines Weltenhorizontes von unendlicher Attraktivität. Deshalb wurde oben das in einem wissenschaftlichen Text ungewohnte Wort "heilig" ahne Anführungsstriche verwendet. Die Stufe ist also ein Teil der Menschwerdung. Zum ersten Mal ereignet sich heute ein vergleichbarer Himmel - ein öffnender Evolutionssprung - erneut. Wiederum ist vollkommen unabsehbar, was die Menschheit in das neue Juwel hineinpacken wird. Mit dem Internet ist diese zweite Phase der Menschwerdung eingeleitet.
  10. Wettlauf der Wissenschaft (2004) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 3495) [ClassicSimilarity], result of:
          0.030684428 = score(doc=3495,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 3495, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3495)
      0.25 = coord(1/4)
    
    Content
    "Jahrzehntelang galt die USA als Platzhirsch in der Forschungswelt. Egal ob es um Patente oder Nobelpreise ging, ihre Adressaten lebten und arbeiteten zumeist in Nordamerika. Jüngste Zahlen zeigen aber, dass diese Vormachtstellung am Bröckeln ist und Europa und vor allem Asien aufholen. Die globale US-Dominanz könnte zumindest im wissenschaftlichen Bereich bald der Vergangenheit angehören. Während in Österreich gerade die Forschungsförderung restrukturiert wird, machen sich die USA trotz rekordverdächtiger Förderbudgets Sorgen um ihre wissenschaftliche Schlagkraft. Nach einem Artikel in der NewYork Times büsst die USA ihre Führungsrolle in Forschung und Entwicklung zusehends ein. Zwar kommen weiterhin die meisten Patente aus Nordamerika, doch sank deren Anteil an den weltweit angemeldeten Patenten von 60,2% (1980) auf 51,8% (2003). Besonders erfolgreich in diesem Feld sind die asiatischen Ländern, allen voran Japan, das seinen Anteil in den letzten 20 Jahren beinahe verdoppeln konnte. Auch bei den wissenschaftlichen Publikationen holt die nicht englischsprachige WeIt auf. So sank zum Beispiel der Anteil US-amerikanischer Autoren bei Physical Reviewvon über 60% in den 80er Jahren auf unter 30% im letzten Jahr. Auch hier holen besonders Forscher aus Asien stark auf. Allein China reicht jedes Jahr über 1.000 Beiträge bei Physical Review ein, sagt Martin Blume, Herausgeber der Zeitschriften der American Physical Society. Der Anteil der USA an den jährlich vergebenen Nobelpreisen sank in den letzten 30 Jahren ebenfalls deutlich auf knapp über 50%. Asien holt auf: Während Europa die amerikanische Führungsrolle eher vorsichtig herausfordert, hat sich in Asien ein regelrechter Boom entwickelt. Die Zahl der abgeschlossenen naturwissenschaftlichen und techni schen Doktorate verdoppelte sich in Asien in nur zehn Jahren, während die Abschlüsse in Europa und den USA stagnieren oder sogar zurückgehen. Steigender Lebensstandard in den Zentren aller Weltregionen und mobilitätsfeindliche Einreisebestimmungen als Folge des "Kriegs gegen den Terror" führen auch dazu, dass Jungwissenschaftler aus China, Indien oder Taiwan nach Abschluss ihrer Ausbildung in den USA verstärkt in ihre Heimatregion zurückkehren. Die amerikanische Wirtschaft reagiert auf diesen Trend zunehmend mit der Auslagerung von Forschungseinrichtungen in diese Länder. In Zeiten der Globalisierung zeigt sich daran aber auch die Schwäche nationalstaatlich orientierter Statistiken."
  11. Kurzidim, M.: Wissenswettstreit : Die kostenlose Wikipedia tritt gegen die Marktführer Encarta und Brockhaus an (2004) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 3826) [ClassicSimilarity], result of:
          0.030684428 = score(doc=3826,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 3826, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3826)
      0.25 = coord(1/4)
    
    Abstract
    Aus einem kleinen InternetProjekt ist ein ernst zu nehmender Herausforderer geworden. Kann Wikipedia, das kostenlose Gemeinschaftsprojekt im Internet, den beiden Enzyklopädieriesen Encarta und Brockhaus auf DVD die Butter vom Brot klauen? Jahrelang galt Microsofts Encarta in der WeIt des Wissens als das Maß aller Dinge. Dann legte die CD-ROM/DVDVersion des Brockhaus gewaltig nach und drohte den Platzhirschen zu entmachten. In unserem letzten Test vor vier Jahren lagen beide Mammutwerke nahezu gleichauf an der Spitze. Jetzt fordert die beiden erfolgsverwöhnten Lexikonriesen ein Konkurrent heraus, den eigentlich niemand so richtig auf der Rechnung hatte: das InternetProjekt Wikipedia. Die freie Enzyklopädie im Web wächst immer schneller und wird immer beliebter. Es scheint nur noch eine Frage der Zeit zu sein, bis sie mit den 240 000 Artikeln des großen Brockhaus Premium gleichzieht. Für die ersten 100 000 Artikel brauchte die deutsche Wikipedia-Szene noch drei Jahre - im Frühjahr dieses Jahres knallten die Sektkorken, um das freudige Ereignis zu begießen. Inzwischen ist die Zahl der Einträge bereits auf über 140 000 angewachsen. Die große Stärke des InternetLexikons, seine Popularität, ist allerdings auch seine gefährlichste Schwäche. Jeder kann auf der Webseite www.wikipedia.de kostenlos Informationen abrufen, aber auch jeder, ganz gleich ob Nobelpreisträger oder Laie, darf sie schreiben oder bearbeiten.
    Fazit Wikipedia erreichte mit 3,6 Zählern im Inhaltstest die höchste durchschnittliche Gesamtpunktzahl - das entspricht einem schwachen Gut. Die WikipediaGemeinde scheint das Verlässlichkeitsproblem - es fehlt eine Redaktion, die Artikel auf ihre Richtigkeit hin überprüft - langsam in den Griff zu kriegen. Schließlich unterlaufen trotz aller Kontrollen auch den kommerziellen Konkurrenten Fehler. Schwerer wiegt das Verständlichkeitsproblem, besonders dann, wenn es um schwierige mathematische und wissenschaftliche Expertenthemen geht. An vielen exzellenten Wikipedia-Fachartikeln werden Laien, die den Umgang mit Formeln nicht gewöhnt sind, schwer zu schlucken haben. Sie müssen sich das zum Verständnis nötige Hintergrundwissen erst erarbeiten und wären letztlich mit einem fachlich nicht ganz so guten, aber besser verständlichen Encarta-Artikel besser bedient. Wikipedia ist das Nachschlagewerk für den neugierigen Wissenschaftler mit guter Allgemeinbildung, der auf Videos, Animationen und multimediale Elemente keinen Wert legt.
  12. Malo, M.: 1. Tagung der deutschsprachigen MetaLib/SFXAnwender (SMUG-DACH) in Berlin (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4122) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4122,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4122, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4122)
      0.25 = coord(1/4)
    
    Abstract
    Vom 21. bis 22. Oktober 2004 fand in der KOBV-Zentrale im Konrad-ZuseZentrum in Berlin die 1. Tagung der deutschsprachigen MetaLib- und SFX-Anwender statt. Bei diesen zwei Produkten aus dem Hause Ex Libris handelt es sich um eine Portalsoftware (MetaLib) für Bibliotheken, die das nahtlose Navigieren und Suchen unter einer einheitlichen Oberfläche in heterogenen Datenbeständen erlaubt. SFX ist ein Link-Resolver, der die kontextsensitive Verknüpfung der gefundenen Informationen (z.B. bibliographischer Nachweis) mit weitgehend frei definierbaren Diensten ermöglicht (z.B. Anzeige des Volltexts bei lizenzierten elektronischen Dokumenten, Suche im OPAC der Bibliothek, Weiterschaltung der Anfrage zur Fernleihe oder zu einem Dokumentlieferdienst usw.).
    Content
    Darin auch: "MetaLib und SFX: die Knowledgebases Nach der Kaffeepause wurde die Frage nach der "idealen Knowledgebase", den internen Datenbanken von MetaLib und SFX, gestellt. In diesen Datenbanken sind jeweils Informationen zu zahlreichen e-Zeitschriften, Datenbanken, Diensteanbietern u.ä. enthalten. Die Daten bestehen zum einen aus beschreibenden Informationen zum jeweiligen Dienst (Name, Anbieter, Inhalt, freier/subskribierter Zugang, ...), zum anderen aus Informationen zur technischen Einbindung der Ressource. In der Diskussion wurde für die KnowledgeBase von SFX vor allem die Integration der ZDB-Nummern sowie die Aufnahme von Sacherschließungsdaten aus der ZDB vorgeschlagen. Um Konfigurationsfehler, die vom Endanwender nicht eindeutig zugeordnet werden können (bekomme ich keinen Volltext, weil der Anbieter das nicht kann oder weil das SFX-Target falsch konfiguriert ist), weitgehend auszuschließen, wurde unter den Anwendern ein verteiltes Testen der einzelnen Targets befürwortet. Weiterhin wurde angeregt, für die einzelnen Anbieter getrennte Targets für die freien und für die lizenzpflichtigen Angebote aufzubauen. Ansonsten stieß die Knowledge-Base von SFX durchweg auf Zustimmung. - Bei MetaLib wurde der Zustand der Knowledge-Base deutlich kritischer eingeschätzt. Hier wurde die Qualität der vorhandenen Konfigurationen bemängelt, die teilweise ohne manuelle Nachbearbeitung nicht nutzbar sind, sowie die Auswahl der vorhandenen Datenbanken, die im deutschsprachigen Raum nicht immer sinnvoll erscheint. Hier wurde die Einrichtung einer abgestimmten German Wish-List fehlender Ressourcen beschlossen. Herr Lütgen (Ex Libris) wies darauf hin, dass Ex Libris stark auf die Kooperation der Verlage und Datenbankanbieter angewiesen ist, um die notwendigen Informationen über Schnittstellen und Datenformate zu bekommen. Ohne die Unterstützung der Bibliotheken, so Lütgen, könne Ex Libris Datenbankbetreiber nicht zur verstärkten Zusammenarbeit bewegen. Erst wenn die Kunden der Anbieter die Offenlegung der Schnittstellen verlangen, seien die Anbieter dazu bereit. Weiterhin wurde beschlossen, selbst entwickelte Konfigurationen in verstärktem Maße auszutauschen, um sich in diesem Bereich Mehrfachentwicklungen zu ersparen."
  13. Knapp, U.: An Promi-Fotos darf nicht manipuliert werden (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4342) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4342,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4342, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4342)
      0.25 = coord(1/4)
    
    Abstract
    Manipulierte Bilder verletzen das Persönlichkeitsrecht der Abgebildeten und dürfen nicht veröffentlicht werden. Das entschied das Bundesverfassungsgericht.
    Content
    Prominente können unterschwellige Manipulationen ihrer Fotos verbieten lassen. Das gilt dann, wenn das Bild den Anschein der Realitätstreue erweckt, aber technisch manipuliert wurde. Mit dem am Dienstag veröffentlichten Beschluss gab das Bundesverfassungsgericht Ex-Telekom-Vorstandschefs Ron Sommer recht. In einer satirischen Abbildung war sein Kopf um fünf Prozent vergrößert worden. Das Gericht sah darin eine Verletzung der Persönlichkeitsrechte. Der Streit begann, als die Zeitschrift Wirtschaftswoche (Verlagsgruppe Handelsblatt) im Jahr 2000 eine Fotomontage mit dem damaligen Vorstandsvorsitzenden Sommer veröffentlichte. Auf dem Bild sitzt er auf einem bröckelnden magentafarbenen T und schaut unbeschwert drein. Bei der Montage wurde Sommers Kopfvergrößert. In dieser Veränderung sah der Ex-Manager eine "unterschwellige und negative Manipulation seiner Gesichtszüge". Durch den technischen Eingriff wirke sein Gesicht "länger, Wangen und Kinn seien fleischiger und breiter, der Kinnbereich fülliger und die Hautfarbe blasser als auf dem Originalfoto", bemängelte Sommer. Der Bundesgerichtshof (BGH) wies die Unterlassungsklage ab. Die Bundesrichter meinten, es sei auf die Gesamtkarikatur abzustellen. Mit der satirischen Abbildung solle zum Ausdruck gebracht werden, dass Sommer unbeschwert auf der Telekom throne, während die Firma Probleme habe. Eine gesonderte Betrachtung der Manipulationen lehnte der BGH damals ab, weil Teile einer Satire insgesamt zu bewerten seien. Die Meinungsfreiheit überwiege gegenüber dem Persönlichkeitsrecht des früheren Telekom-Chefs. Sommer ließ den Hamburger Medienanwalt Matthias Prinz Verfassungsbeschwerde einlegen. Sie war vor allem deshalb erfolgreich, weil die Manipulation des Fotos nicht offensichtlich war, sondern der Betrachter gerade "keinen Anhaltspunkt" für die technische Veränderung hatte. "Fotos suggerieren Authentizität und der Betrachter geht davon aus, dass die abgebildete Person in Wirklichkeit so aussieht", heißt es in der Entscheidung. Diese Annahme treffe bei einer unterschwelligen Bildmanipulation aber nicht zu. Das allgemeine Persönlichkeitsrecht schütze vor der Verbreitung eines technisch manipulierten Bildes, das den Anschein erwecke, ein authentisches Bild zu sein. Da das Abbild dadurch eine unrichtige Information erhalte, sei es nicht vom Recht auf Meinungsfreiheit gedeckt. Falsche Informationen seien kein schützenswertes Gut. Der Fall wurde an den Bundesgerichtshof zurückverwiesen. Der muss nun prüfen, ob die Veränderungen geringfügig sind. In diesem Fall würde keine Verletzung des Persönlichkeitsrechts vorliegen. Bei einer Manipulation der Gesichtszüge des Prominenten wäre dies jedoch der Fall. (Az.: 1 BvR 240/04)
  14. Kaulen, H.: Deutsche Publikationen in MEDLINE unterschlagen (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4379) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4379,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4379, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4379)
      0.25 = coord(1/4)
    
    Content
    "Systematische Verzerrungen beim Aufbau von internationalen Literaturdatenbanken haben zu einer zunehmenden Schieflage in der öffentlichen Wahrnehmung von Forschungsergebnissen geführt. Eine wichtige Quelle für diese Verzerrungen ist die deutsche Sprache. as nicht in Englisch publiziert wird, findet seltener Eingang in so wichtige Datenbanken wie Medline, die von der amerikanische National Library of Medicine zusammengestellt und verwaltet wird. Was nicht in diesen virtuellen Bibliotheken aufgelistet ist, kann auch nicht auf elektronischem Wege recherchiert werden. Viele Daten finden daher keinen Eingang in die wissenschaftliche Diskussion. Welche Konsequenzen sich daraus für den Wissenschaftsstandort Deutschland ergeben, haben Jens Türp und seine Kollegen vom Zentrum für Zahnmedizin der Universität Basel für den Bereich der Zahnmedizin ermittelt. Von den in den vergangenen dreißig Jahren in deutschen zahnmedizinischen Fachzeitschriften publizierten klinischen Studien waren - je nach Art der Studie - nur die Hälfte oder drei Viertel in Medline berücksichtigt. Von diesen wiederum waren viele mit einem falschen Index versehen, was ihre Auffindung besonders für ungeübte Datenbankbenutzer schwierig machte. Wesentliche Erkenntnisse der deutschen zahnmedizinischen Forschung scheinen also nicht wahrgenommen zu werden, was einen fatalen Teufelskreis in Gang setzt. Was nicht wahrgenommen wird, wird auch nicht zitiert. Und was nicht zitiert wird, hat noch weniger Chancen, in einer der angesehenen Datenbanken aufgelistet zu werden. Deshalb verlieren deutsche Zeitschriften für die Veröffentlichung von Originalarbeiten zunehmend an Bedeutung. Viele Zeitschriften haben deshalb den Rückzug in die Fort-und Weiterbildungsarbeit angetreten und veröffentlichen vorrangig Obersichtsartikel statt Originalarbeiten. Obwohl man bei den deutschen Fachzeitschriften das Dilemma kennt, scheint man wenig dagegen tun zu kön nen. Die "Deutsche Zahnärztliche Zeitschrift" bemüht sich seit Jahren darum, wieder in Medline aufgenommen zu werden, wo sie zwischen 1970 und 1992 vertreten war. Sie erfüllt zwar nach wie vor alle Kriterien, trotzdem wird ihr das Listing, wie Thomas Kerschbaum von der Zahnklinik der Universität Köln erläuterte, ohne Nennung von Gründen vorenthalten. Das ist nur durch eine gewisse Willkür zu erklären. Die mangelnde Berücksichtigung der deutschsprachigen Originalartikel verzerrt aber nicht nur die Wahrnehmung der Forschungsergebnisse. Die betroffenen Forscher kommen auch bei der Vergabe der Fördermittel zunehmend in Bedrängnis. Seitdem ein Teil der Forschungsgelder leistungsbezogen vergeben wird und Leistung am Grad der öffentlichen Wahrnehmung gemessen wird, werden ihnen immer weniger Mittel zugeteilt."
  15. Lossau, N.: ¬Der Nutzer soll König werden : Digitale Dienstleistungen in wissenschaftlichen Bibliotheken: Das Internet setzt Maßstäbe (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4430,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4430, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4430)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftliche Bibliotheken haben im Laufe ihrer Geschichte verschiedene Rollen übernommen. Sie sind langfristige Bewahrer des Wissens, kompetente Vermittler von Informationen und verlässliche Garanten für Qualität. Für die Zukunft wird eine weitere Rolle zentrale Bedeutung gewinnen: die des Dienstleisters'. Nicht mehr die Größe des Bestands oder die Exzellenz einer Sammlung werden die entscheidenden strategischen Erfolgsfaktoren sein. Die wissenschaftliche Bibliothek 2007 stellt vielmehr den Nutzer oder auch Kunden in den Mittelpunkt. Nicht mehr implizit, im Sinne einer wohlmeinenden Fürsorge durch den Informationsprofi Bibliothekar. Kundenorientierung bedeutet künftig, dass alle bibliothekarischen Aktivitäten sich daran messen lassen müssen, ob sie im Ergebnis für den Nutzer eine sinnvolle Dienstleistung darstellen. Erfolg wird definiert als Akzeptanz durch den Kunden. Referenzrahmen für die Gestaltung von digitalen Services ist das Internet geworden, das sich zur maßgeblichen, branchenübergreifenden Plattform für digitale Dienstleistungen entwickelt hat. Wissenschaftliche Bibliotheken können sich nicht länger den allgemeinen Leistungsmerkmalen von Internetservices entziehen: intuitive Bedienbarkeit auch für den Laien, überschaubares Funktionen-Angebot, überzeugende Performance, rascher Wechsel von einem Dienst in den anderen, durchgehende Erreichbarkeit sowie die »Garantie« für ein Erfolgserlebnis. Eigene, lieb gewonnene Gewohnheiten und Traditionen von Bibliotheken werden sehr sorgfältig zu prüfen sein, ob sie aus Sicht der Nutzer und gemessen an den Service-Maßstäben des Internet weiterhin Bestand haben können. Bibliotheken können nicht länger nur von Bibliotheken lernen. Erfolg versprechend können zukünftig die sorgfältige Wahrnehmung und Analyse branchenfremder Dienstleistungen sein, weniger inhaltlich als methodologisch und strukturell. Lernen vom Internet bedeutet aber nicht, die dortigen Erfolgsrezepte bloß zu kopieren. Bibliotheken haben eigene, traditionelle Stärken, die sie kreativ in neue Services einbringen sollten. Dazu gehören die neutrale Bewertung von Informationsquellen, die inhaltlich relevante Kategorisierung und Filterung, das Bemühen um kostengünstigen Zugriff für den Nutzer sowie die dauerhafte Sicherung des Informationszugriffs. Die wissenschaftlichen Bibliotheken verstehen sich als Garanten einer qualitativ hochwertigen Literaturversorgung für die wissenschaftliche Community. Was bedeutet es, Informations-Dienstleistungen im Jahr 2007 zu erbringen? Wie definieren wir digitale Services im Zeitalter des Internet? Der folgende Artikel versucht Antwort auf diese Fragen zu geben und damit Orientierungshilfe für die weiteren, entscheidenden Weichenstellungen für Bibliotheken.
  16. Puschwadt, O.: Wer suchet, der findet : Suchmaschinen - Es müssen nicht immer nur Google und Yahoo sein (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4731,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4731, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4731)
      0.25 = coord(1/4)
    
    Content
    "Nobody is perfect - diese Weisheit trifft auch auf Suchmaschinen zu. Google, Yahoo und Co. finden zwar viel, aber nicht alles. Insbesondere bei Spezialthemen ist es ratsam, eine Meta-Suchmaschine wie Metacrawler (www.metacrawler.de), MetaGer (meta.rrzn.uni-hannover.de) oder Ixquick (www.eu.ixquick.com) zu Rate zu ziehen. Sie fragen gleichzeitig mehrere Suchmaschinen ab. Bei Metacrawler sind dies beispielsweise 22 internationale und 15 nationale Suchdienste. Ixquick durchstöbert gleichzeitig mindestens zehn der populärsten Suchmaschinen und dies in 17 Sprachen. Dadurch verbessert sich die Trefferquote natürlich erheblich. Eine weitere gute Möglichkeit, die spezielle Suche im Internet spürbar zu erleichtern, ist die Benutzung eines Webkataloges. Zu empfehlen sind Excite (www.excite.de), das Suchlexikon (www.suchlexikon.de) oder auch das englischsprachige Angebot iTools (www.itools.com). Diese Webkataloge können als "Verzeichnisse von Suchmaschinen" bezeichnet werden. Sie bündeln verschiedene Suchmaschinen zu bestimmten Themengebieten wie Wirtschaft, Freizeit, Computer oder Sport. Keine Suchmaschine im eigentlichen Sinne, aber dennoch sehr nützlich, um an Informationen oder auch Ratschläge im Netz zu kommen, ist Wikipedia (de.wikipedia.org). Das Internet-Lexikon hat sich den Beinamen "die freie Enzyklopädie" gegeben und dient als Sammelpunkt für Informationen und Wissen der User. Dies ist allerdings auch die Schwäche der Seite, denn um eine hundertprozentig verlässliche Antwort zu bekommen, sind die Angaben oft zu ungenau. Eine interessante Variante ist die News-Suchmaschine Paperball (www.paperball.de). Hierbei werden die Online-Ausgaben deutscher und internationaler, Tagesund Wochenzeitungen durchforstet. Man kann die Suche auch auf bestimmte Rubriken beschränken. Auf der Suche nach ehemaligen Mitschülern? Dann sind Sie bei StayFriends (www.stayfriends.de) genau richtig. Nach einer kostenlosen Anmeldung kann man nach verloren gegangenen Freunden aus der Schulzeit fahnden. Fast 1,8 Millionen Einträge sollen laut Anbieter bereits auf der Seite eingegangen sein. Der Nachteil: Wer sich nicht eingetragen hat, wird auch nicht gefunden. Wer gezielt nach Bildern sucht, wird bei Bomis (www.bomis.com) fündig. Hierbei werden nur Seiten durchstöbert, auf denen sich Bilder zu bestimmten Themen oder Personen befinden. Abschließend sei allen Internetnutzern noch eine ganz spezielle Seite ans Herz gelegt. Die Suchfibel (www.suchfibel.de) gibt wichtige Tipps für das richtige Suchen im Netz. Zum einen werden hier Ratschläge gegeben, die das Finden von Informationen im Web einfacher machen, zum anderen listet die Seite auch 2700 verschiedene Suchmaschinen - nach Stichwörtern geordnet - auf."
  17. dpa/EB: "Wiki"-Gemeinde erklärt die Welt : 1. Kongress der Wikipedianer - Qualität des Online-Dienstes teils mangelhaft (2005) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.030684428 = score(doc=4732,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 4732, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4732)
      0.25 = coord(1/4)
    
    Content
    "Das Wort "Wiki" kommt aus Hawaii und heißt schnell. Diesen Anspruch hat die Internet-Enzyklopädie Wikipedia eingelöst: In nur vier Jahren hat das kostenlose Online-Nachschlagewerk den Globus erobert. Weltweit bringt es Wikipedia in mehr als 60 Sprachen auf über zwei Millionen Einträge, allein in Deutschland haben über 10.000 Freiwillige rund 270.000 Artikel erstellt. Noch bis Sonntag will die Wiki-Gemeinde in Frankfurt, gemeinsam mit dem Vater der Enzyklopädie, Jimmy Wales, auf ihrer ersten internationalen Konferenz über Zukunft, Erfolge und Probleme sprechen. Neben Software-Fragen wird es um die Zuverlässigkeit der Artikel gehen, die von sehr unterschiedlicher Qualität sind. Wie das Bildungsportal "Bildungsklick" herausgefunden hat, enthält im Schnitt jeder Text vier Rechtschreibfehler. Dies ist auch deshalb bedenklich, weil der kostenlose Online-Dienst von und für notorisch unterfinanzierte Schulen empfohlen wird. Die Internet-Philosophie des 38-jährigen Amerikaners Wales aus Florida ist einfach: Informationen sollen für alle frei zugänglich sein, und alle Internetnutzer können bei der Enzyklopädie mitmachen. Jeder Artikel oder Eintrag kann von anderen verbessert oder erweitert werden. Dabei kann immer festgestellt werden, wie und von wem ein Artikel verändert wurde. Zur weltweiten Verbreitung seiner Idee rief Wales 2003 die Wikimedia-Stiftung ins Leben. Die deutsche Wikipedia-Community, zweitgrößte nach den USA, ist bunt. "Wir haben 13-Jährige genauso wie 80Jährige, die für uns arbeiten", sagt Kurt Jansson, der 28 Jahre alte Vorsitzende des deutschen Fördervereins. Überdurchschnittlich viele Beiträge kommen von Studenten, der Altersdurchschnitt liege bei 30 Jahren, schätzt Jansson, der Soziologie in Berlin studiert. Bei allem idealistischen Anspruch sind jedoch auch Kontrolleure nötig. In Deutschland gibt es um die 160 Administratoren, die Einträge aus dem Web entfernen können. Sie forsten die Einträge auf Fehler durch und überprüfen Fakten auf Zuruf ihrer User. Denn auf deren Mithilfe sind sie angewiesen. Immer wieder gibt es Scherzbolde, die Artikel erfinden. Dann gibt es Artikel, die wegen fehlender Substanz jeder zur Diskussion stellen, kann. Über die ständig aktualisierte Streichliste entscheidet dann einender Administratoren. Die Administratoren müssen auch eingreifen, wenn zwei Autoren zum Beispiel bei einem Artikel über einen Politiker eine private Kontroverse austragen oder PR in eigener Sache machen. Vollständig haben sie die Worterläuterungen dabei jedoch nicht im Blick. Täglich kommen auf Deutsch 400 neue Artikel dazu und 60 verschwinden wieder. Die gesamte Verwaltung von Wikipedia gemeinnützige deutsche Förderverein finanziert sich nach eigenen Angaben - wie auch die gesamte internationale Wikipedia-Bewegung - nur aus Spenden. Die Organisation betreibt auch noch anderen Projekte wie das Nachrichtenportal Wikinews."
  18. Springer, M.: Wille und Wissen (2006) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 5986) [ClassicSimilarity], result of:
          0.030684428 = score(doc=5986,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 5986, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5986)
      0.25 = coord(1/4)
    
    Content
    "Wollte ich das? Eigentlich war ich gerade dabei, durch die neueste Ausgabe von »Nature« zu blättern, als etwas mich veranlasste, ein leeres Word-Dokument zu öffnen und mit »Wollte ich das?« diesen Text zu beginnen. Jetzt könnte ich freilich gleich wieder aufhören und weiter blättern, aber aus freien Stücken. schreibe ich weiter - solange ich eben will. Aber was heißt das? Wenn ich Mitmenschen beobachte oder mich selbst als einen Menschen unter anderen, nehme ich den Standpunkt der dritten Person ein. Ich beschreibe mich von außen, sage »Er« statt »Ich« und stelle fest: Er, also diese Person da, wurde soeben durch gewisse Einflüsse veranlasst, einen Text über Willensfreiheit zu beginnen. In der Welt geschieht nichts ohne Grund und Menschen sind Teil der Welt. Wenn jemand etwas tut, dann steckt dahinter ein dichtes Geflecht von Ursachen. Davon bleibt nichts und niemand ausgenommen. Wenn ich alles über diese Person da wüsste, könnte ich sagen, warum sie jetzt schreibt. Es musste so kommen. Aber vom Standpunkt der ersten Person erlebe ich etwas völlig anderes. Ich hatte die Möglichkeit, zu lesen statt zu schreiben. Ich spürte keinen unüberwindlichen Zwang zum Schreiben, sondern wählte es aus freien Stücken. Ich wollte es so. Diese Beschreibungsdiskrepanz zwischen erster und dritter Person macht das Problem der Willensfreiheit aus. Dafür gibt es im Prinzip drei Lösungen: 1. Ich gebe der »ersten Person« Recht: Mein Wille ist frei, ich kann den Weltlauf nach Belieben verändern. 2. Die »dritte Person« hat Recht: Für alles gibt es eine kausale Erklärung, also auch für menschliches Handeln. Der freie Wille ist eine Illusion. 3. Man versucht, beide Standpunkte trotz ihrer Gegensätzlichkeit zu versöhnen. Für die erste Lösung spricht immerhin die unmittelbare Erfahrung spontanen Handelns. In ihrer radikalen Form kann sie allerdings nur ein Größenwahnsinniger vertreten, der sich für allmächtig hält. Selbst ein unbedingter Verteidiger der Willensfreiheit wird zugeben, dass er nicht absolute Willkür meint, sondern Handlungsfreiheit innerhalb gewisser - meist enger - Grenzen. Damit gibt er sich aber als Vertreter der hochproblematischen dritten Lösung zu erkennen."
  19. Söllner, K.: Google Scholar und Windows Live Academic Search - aktuelle Entwicklungen bei wissenschaftlichen Suchmaschinen (2006) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 181) [ClassicSimilarity], result of:
          0.030684428 = score(doc=181,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 181, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=181)
      0.25 = coord(1/4)
    
    Abstract
    Dass das World Wide Web als geeignete Quelle wissenschaftlicher Information angesehen werden kann, ist für viele Fächer inzwischen unumstritten. Weniger im Bewusstsein der Nutzer verankert ist die Erkenntnis, dass das Web nur in den Ausschnitten und in der Anordnung zur Kenntnis genommen werden kann, wie sie die Suchmaschinen präsentieren. Dieser Aspekt ist vor allem durch die allgegenwärtigen Rankingverfahren der führenden Suchmaschinenanbieter in den Hintergrund getreten. Dagegen ist die Suche in Internetkatalogen, die offensichtlicher nur Ausschnitte und eine unmittelbar nachvollziehbare Anordnung präsentieren, seit dem Siegeszug von Googles PageRank unpopulär geworden. Rankingverfahren, Abdeckung und Aktualität eines Suchmaschinenindex sind nicht nur Geschäftsgeheimnis der Betreiher, sondern angesichts ihres scheinbar reibungslosen Funktionierens für den normalen Nutzer uninteressant. Dass auch Kenntnisse einer strukturierten Suche oder Suchsyntax für das textbasierte Web meistenteils unnötig oder inadäquat sind, lässt die Websuche besonders einfach erscheinen - im Unterschied zu den Suchmasken und Syntaxkonventionen der Bibliotheks-0PACs und vieler Datenbankanbieter. Diese Einfachheit wird durch installierte Suchwerkzeuge a la Google Toolbar bzw. fest integrierte Suchschlitze wie im Mozilla-Browser Firefox bzw. im Internet Explorer 7.0 zum Standard für die großen Suchmaschinen, und durch entsprechende Such-Plugins auch für andere Suchen. Ein besonderer Wettbewerbsvorteil der Suchmaschinen gegenüber den Datenbankanbietern, der sich auch nicht durch Anpassungen beim Design kompensieren lässt, ist die Kostenfreiheit der Suche. Darüber hinaus erfüllen sie eine wesentliche Anforderung an sehr viele wissenschaftliche Themenstellungen: sie sind strikt interdisziplinär. Damit machen Sie aus der Not eine Tugend, denn eine fachliche Auswahl oder intellektuelle Auswertung findet in der Regel nicht statt. Die Defizite der großen Suchmaschinen liegen aus wissenschaftlicher Sicht betrachtet aber auch genau in diesem Bereich: unspezifische oder thematische Suchen führen zu Massen populärer Websites, nicht aber zum wissenschaftlichen Content, insbesondere etwa in der Medizin. Das Dilemma des häufig schlechten Rankings wissenschaftlicher Inhalte ist einer der Ausgangspunkte für den Ruf nach wissenschaftlichen Suchmaschinen.
  20. Springer, M.: Was hier steht, ist nicht wahr (2006) 0.01
    0.007671107 = product of:
      0.030684428 = sum of:
        0.030684428 = weight(_text_:und in 309) [ClassicSimilarity], result of:
          0.030684428 = score(doc=309,freq=14.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25933182 = fieldWeight in 309, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=309)
      0.25 = coord(1/4)
    
    Content
    "Was halten Sie von diesem Satz, der von sich aussagt, dass er falsch sei? Wenn er, wie behauptet, nicht wahr ist, stimmt nicht, was er aussagt, und das bedeutet, dass er wahr ist - im Widerspruch zu dem, was er behauptet. Als Urform solcher sich selbst torpedierenden Aussagen gilt die Paradoxie des kretischen Priesters Epimenides, der alle Kreter als Lügner bezeichnete. Auch dies führt zu einer Antinomie: einem unauflöslichen Selbstwiderspruch. Vor hundert Jahren, am 28. April 1906, wurde im heutigen Tschechien, damals Teil der österreichischen Monarchie, Kurt Gödel geboren, den die Fachwelt zu diesem Jubiläum als den größten Logiker seit Aristoteles feiert. Sein Ruhm beruht im Wesentlichen auf einem einzigen Theorem, dem Gödel'schen Unvollständigkeitssatz, der auf raffinierte Weise die Antinomie des Lügners nutzt. Damit zeigte Gödel 1931, dass die damalige Erwartung, die gesamte Mathematik lasse sich nach dem Vorbild der Euklidischen Geometrie aus einigen Axiomen und Ableitungsregeln entwickeln, trügerisch war. In jedem formalen System, das es erlaubt, die Theoreme der Arithmetik herzuleiten, können systemsprengende Sätze von der Art des Lügnerparadoxons konstruiert werden, die sich weder beweisen noch widerlegen lassen. Gödel selbst sah in seiner - für die Zeitgenossen völlig überraschenden - Entdeckung nichts Negatives, obwohl sie die Hoffnung, die Mathematik könne letztlich komplett auf Logik zurückgeführt werden, gründlich zerstörte. Hätte jene Hoffnung sich bewahrheitet, so gäbe es zumindest theoretisch ein Computerprogramm, das automatisch sämtliche Sätze der Mathematik zu produzieren vermöchte. Gödel hingegen meinte als überzeugter Anhänger der Platon'schen Ideenlehre, die Tätigkeit der Mathematiker gleiche der Entdeckungsreise in eine unbekannte Welt geistiger Objekte und nicht der freien Erfindung von Spielregeln, Formalismen und Rechenprogrammen. Dafür schien ihm sein Unvollständigkeitssatz ein klares Indiz (siehe »Kurt Gödel«, Spektrum-Biografie 1/2002). Wie groß der denkerische Ehrgeiz des großen Logikers war, offenbaren erst Gödels postum edierte Notizen. Schon der Halbwüchsige betitelte ein Schulheft mit »Fehler der Bibel« - nicht einmal das Buch der Bücher war vor seinem kritischen Misstrauen sicher. In reifen Jahren arbeitete er an einem Beweis für die Existenz Gottes auf rein logischer Basis - nach dem Vorbild des mittelalterlichen Scholastikers Anselm von Canterbury. Gödels ontologischer Gottesbeweis geht kurz gesagt so: Gott ist nur denkbar als Wesen, das alle positiven Eigenschaften in sich vereint, und da Existenz eine solche positive Eigenschaft ist, muss Gott existieren. Was zu beweisen war. In gewisser Weise erscheint mir dieses Argument als logische Umkehrung der Antinomie des Lügners. Der Satz »Ich bin falsch« sprengt die Konsistenz des Systems, in dem er formuliert wird; die Behauptung »Ich bin wahr« macht das Gegenteil: Eigenmächtig, kühn und herausfordernd stellt sie sich selbst im logischen Raum auf. Um dieser Behauptung blindlings zu vertrauen, ja sie als Selbstaussage des höchsten Wesens zu verstehen - etwa im Sinne des Jesu-Worts »Ich bin die Wahrheit und das Leben« -, dazu muss man freilich wie Gödel bedingungslos an die reale Existenz logisch-mathematischer Objekte glauben."

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications