Search (4748 results, page 215 of 238)

  • × year_i:[2000 TO 2010}
  1. Czepel, R.: ¬Die Geographie der wissenschaftlichen Zitierung (2003) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 3273) [ClassicSimilarity], result of:
          0.02479987 = score(doc=3273,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 3273, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3273)
      0.25 = coord(1/4)
    
    Abstract
    Ein britischer Forscher hat sich die Mühe gemacht, die geografischen Muster der Zitierungen von 1981 bis zur Gegenwart freizulegen. Das Ergebnis: Die publizistische Wahrnehmung ist in der Wissenschaft äußerst ungleich verteilt. Die USA dominieren mit großem Abstand vor dem Rest der WeIt. Und auch dort konzentrieren sich die Verweise auf einige wenige Ballungsräume der Forschung. Michael Batty vom Centre for Advanced Spatial Analysis in London bediente sich für seine Analyse der Datenbank "ISIHighlyCited.com" (http: //www.isihighlycited.com/), in der Forscher aus verschiedenen Disziplinen aufgelistet werden, die die weltweit meisten Zitate auf sich gezogen haben. In diesen Ranglisten nehmen die akademischen Edelschmieden aus den USA etwa jene Rolle ein, die Österreichische Athleten im Alpinschisport besetzen. Einzig der Forschungsraum London kann mit der Konkurrenz aus Übersee halbwegs mithalten. Der Artikel "Citation Geography: It's About Location" von Michael Batty erschien im Magazin "The Scientist" (Band 17, Heft 16/10, Ausgabe vom 25.8.03; http://www.thescientist.com/yr2003/aug/opinion 030825.html). Die Zeitschrift ist nach individueller Registrierung frei zugänglich. Der Homepage des Autors http: //www.casa.ucl.ac.uk/citations/ können weitere Details entnommen werden. Ob die Anzahl derZitate auch etwas über die wissenschaftliche Qualität aussagt, ist genau so Gegenstand von Diskussionen, wie dies etwa bei den "Impact-Faktoren" von Journalen der Fall ist (vgl. "Kann wissenschaftliche Qualität gemessen werden?", http://science.orf.at/science/news/58648). Ganz wertfrei kann man die ISI-Daten jedenfalls dazu verwenden, um herauszufinden, in welchem Land, in welcher Stadt und in welcher Institution die meist zitierten Forscher dieses Erdballs sitzen. Das Ergebnis dieser von Michael Batty erstellten "Geografie derwissenschaftlichen Zitierung" ist eindeutig: Einige Wenige ziehen den Großteil der publizistischen Aufmerksamkeit auf sich - und lassen für den Rest nur wenig über. Diese Aussage gilt gleichermaßen für Ranglisten von Städten, Institutionen und Ländern. Und: In allen drei Fällen kommen die Spitzereiter aus dem US-amerikanischen Raum.
  2. Bibliometrische Analysen - ein Beitrag für ein gerechtes Notensystem in der Forschung? : Konferenz in Jülich (2004) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 3296) [ClassicSimilarity], result of:
          0.02479987 = score(doc=3296,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 3296, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3296)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsgelder sind knapp- immer lauter wird die Frage, nach welchen Kriterien sie gerecht vergeben werden. Zunehmend in den Blickpunkt geraten dabei Methoden, mit denen die wissenschaftliche Leistung von Nationen, Forschungsinstitutionen und Wissenschaftlern scheinbar objektiv anhand ihrer Publikationen gemessen werden kann. Über die »Bibliometric Analysis in Science and Research« diskutierten 130 Teilnehmer aus fünfzehn Ländern auf einer Tagung, die das Forschungszentrum Jülich im Herbst letzten Jahres ausgerichtet hat.
    Content
    "Bibliometriker analysieren Publikationen und deren Beziehungen untereinander; ihre »Werkzeuge« sind mathematische und statistische Verfahren. Sie haben eine Reihe von Indikatoren entwickelt, die immer häufiger herangezogen werden, um wissenschaftliche Leistung zu bewerten. Einig waren sich die Teilnehmer der Jülicher Konferenz darüber, dass die bibliometrische Analyse andere etablierte Bewertungsmethoden nur ergänzen, nicht aber ersetzen kann. Zu diesen zählt beispielsweise das »peer review«, ein Gutachterverfahren: Hier entscheidet jeweils ein Gremium renommierter Fachkollegen darüber, ob ein Forschungsprojekt gefördert oder ob ein Beitrag in einer Fachzeitschrift aufgenommen werden sollte. Kritiker sind überzeugt, dass eine objektive Betrachtung nicht immer gegeben ist. Doch auch die Zitationsanalyse - eine wichtige bibliometrische Methode - ist nicht unumstritten. Wie häufig eine wissenschaftliche Arbeit zitiert wird, muss nicht unbedingt etwas über ihre Qualität aussagen: So zitiert ein Wissenschaftler die These eines Kollegen möglicherweise nur, um sie zu widerlegen. Weltweit führender Anbieter bibliometrischer Daten ist das amerikanischen Institute of Scientific Information (ISI) mit dem »Science Citation Index«, der weltweit größten Datenbank mit bibliometrisch verwertbaren Daten. Zu den bibliometrischen Indikatoren gehört auch der »Impact-Faktor«, der Auskunft darüber gibt, wie häufig die Artikel einer bestimmten Fachzeitschrift in anderen Publikationen zitiert werden. Immer wieder warnten die Tagungsteilnehmer davor, die Bedeutung dieses Faktors zu überschätzen. Ein Problem ist beispielsweise die Ver gleichbarkeit von verschiedenen Forschungsrichtungen. So haben biomedizinische Fachzeitschriften nahezu immer einen höheren Impact-Faktor als Blätter, in denen Ergebnisse aus der physikalischen Grundlagenforschung publiziert werden - ohne dass sich ein Unterschied in Qualität oder Bedeutung feststellen lässt. Der reine Vergleich des Impact-Faktors ist also nur innerhalb eines Fachgebiets möglich-alles andere hieße, Äpfel mit Birnen zu vergleichen. Die Jülicher Konferenz hat erstmals alle Beteiligten - Wissenschaftler, Forschungsmanager und Informationsfachleutezusammengebracht. Veranstaltet wurde die Tagung von der Zentralbibliothek des Forschungszentrums, einer der größten außeruniversitären Spezialbibliotheken in Deutschland. Dazu Rafael Ball, Leiter der Zentralbibliothek: »Die Forschungsförderung braucht ein Notensystem, das die Wissenschaft gerechter als bisher bewertet. Dazu kann die Informationswissenschaft mit der Durchführung bibliometrischer Analysen Hilfestellungleisten.« Fazit der Jülicher Tagung: Die bibliometrische Analyse kann einen wesentlichen, aber begrenzten Beitrag für die Evaluierung von Wissenschaft leisten. Wichtige Faktoren für den Erfolg der Bibliometrie sind eindeutige Vorgaben der Auftraggeber, Transparenz der ermittelten Daten und praxisorientierte Vorgehensweise. Bleibt als Resümee festzuhalten: Man darf die Veröffentlichungen nicht nur zählen, man muss sie lesen! - Der Proceedingsband der Tagung kann im Eigenverlag des Forschungszentrums (Kontakt: R. Relius, Forschungszentrum Jülich, Zentralbibliothek; Telefax 0 24 61/61-6103, Internet <www.fz-juelich.de/zb/verlag>) schriftlich bestellt werden."
  3. Lanvent, A.: Licht im Daten Chaos (2004) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 3806) [ClassicSimilarity], result of:
          0.02479987 = score(doc=3806,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 3806, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3806)
      0.25 = coord(1/4)
    
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
    Footnote
    Darin auch 2 Teilbeiträge: (1) Know-how - Suchverfahren; (2) Praxis - Windows-Suche und Indexdienst
  4. Schetsche, M.; Lehmann, K.; Krug, T.: ¬Die Google-Gesellschaft : Zehn Prinzipien der neuen Wissensordnung (2005) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 4488) [ClassicSimilarity], result of:
          0.02479987 = score(doc=4488,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 4488, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4488)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen gelten bei Reisen durch den Datendschungel als nützliche Gefährten und können sogar Leben retten: Wie der Sender BBC im August 2004 berichtete, wurde der im Irak entführte Journalist John Martinkus auf Grund von Internet-Recherchen freigelassen. Die Entführer überprüften Martinkus' Aussagen per Google-Suche und stellten so sicher, dass dieser weder für ein US-Unternehmen oder den CIA arbeitet noch US-Amerikaner ist. Der australische Journalist kam mit einem gehörigen Schrecken davon; dass seine journalistischen Berichte online gelesen werden konnten, rettete ihm das Leben. Auf den ersten Blick irritiert und verwundert diese Episode zwar, beim zweiten Blick wird jedoch deutlich, dass das Internet inzwischen die Rolle ausfüllt, die Experten immer wieder prophezeit hatten: die eines globalen Gedächtnisses, einer Bibliothek menschlichen Wissens; zugänglich in allen Winkeln der Erde, gewinnt es in stets neuen - oft unvorhergesehenen - Zusammenhängen an Bedeutung. Die Internet-Recherche, da sind sich alle einig, ist heute zu einer zentralen Kulturtechnik geworden. Sie stellt ein Werkzeug dar, über das immer größere Erfahrungsbereiche des wissensgesellschaftlichen Alltags erschlossen werden. Dies verweist auf zwei andere Aspekte von Suchmaschinen: Wer das Internet mit seinen enormen Potenzialen nutzen will, kommt ohne sie nicht aus. Und das spiegelt sich zunehmend auch in ihrer wirtschaftlichen Bedeutung wider. Als börsennotierte Unternehmen besitzen sie einen enormen Wert - ohne ein anfassbares Produkt herzustellen, geschweige denn für ihre wichtigste Dienstleistung, das Suchen nach Informationen, Geld zu verlangen.
    Content
    Enthält die Kapitel: Mythos Google Wissen war gestern, googlen ist heute und die Prinzipien: 1. Die Suchmaschine als Universalschnittstelle 2. Die mediale Erschaffung der Wirklichkeit 3. Neue Wirklichkeit, neue Öffentlichkeit 4. Ungleichheit durch Gerechtigkeit 5. Unhintergehbare technische Normen 6. Wiederverzauberung der Welt 7. Die neue Ökonomie 8. Der Kampf um Aufmerksamkeit 9. Information als Transaktionsressource 10. Dissoziative UmOrdnung des Wissens
  5. Lokale Suche: T-Info landet Volltreffer in Deutschland : Beta-Version: Suchen.de (2006) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 5979) [ClassicSimilarity], result of:
          0.02479987 = score(doc=5979,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 5979, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5979)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen wissen auf fast jede Frage eine Antwort, aber den Bäcker um die Ecke finden sie noch nicht - zumindest nicht in Deutschland. Doch jetzt will die Telekom-Tochter T-Info auch hierzulande eine Suche anbieten, mit deren Hilfe Internet-Surfer die nächste PKW-Werkstatt oder einen Klempner mit 24-StundenService finden können. Der nahe liegende Name: Suchen.de. Die lokale Suche arbeitet wie eine aufgebohrte Version des Branchenbuches "Gelbe Seiten". Sie verraten der Site Ihren Wohnort und einen Suchbegriff und erhalten beispielsweise eine Liste mit Tanzschulen in Ihrer Nähe. Das allein macht den neuen Service freilich nicht revolutionär - beeindruckend ist vielmehr die Verschmelzung verschiedener Infoquellen zu einem Komplett- paket. Weil T-Info die Daten der Gelben Seiten, einer Websuche inch eines Routenplaners vereint, verrät es auch die Öffnungszeiten der Tanzschule, deren Telefonnummer und eine Anfahrtsskizze. T-Info: Beta der lokalen Suche kommt zur CeBIT CHIP konnte Suchende schon in Funktion erleben. Derzeit fehlen bei einigen Suchtreffern noch die nützlichen Zusatzinformationen; auch das Layout der Seite wirkt noch altbacken. Durchdacht: In einer separaten Bildschirmspalte listet Suchende Worte, die oft auf den gefundenen Seiten vorkommen. Wer dort auf "Tango" klickt, soll nur noch Tanzschulen sehen, die den Tanz auch lehren. Laut Antonio De Mitri, dem Pressesprecher von T-Info, wird das Aussehen der Seite noch überarbeitet. Eine Beta-Version der Suchmaschine will die Telekom-Tochter während der CeBIT freischalten - und konkurriert plötzlich mit bekannten Wehgrößen: Sowohl Google als auch das Internet-Portal Web.de möchten ihre Angebote noch in der ersten Hälfte 2006 mit einer lokalen Suche aufwerten. Peinlich für Google: Eigentlich wollte der Platzhirsch schon im vergangenen Jahr eine lokale Variante seines Dienstes starten. Derzeit existiert aber nach wie vor nur eine amerikanische Seite von "Google local". Konkurrent Yahoo präsentiert schon seit längerer Zeit eine ortsbezogene Suchfunktion in Kooperation mit dem Verzeichnis "Das Örtliche". Allerdings fehlen dem Angebot die Vernetzung der Informationen, und die Pflege der Daten lässt zu wünschen übrig: Als zweiten Treffer bei der Suche nach einer KFZ-Werkstatt in München bekommen Surfer den Link zu einem Krankentransport.
  6. Wildner, B.: Web of Science - Scopus : Auf der Suche nach Zitierungen (2006) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 34) [ClassicSimilarity], result of:
          0.02479987 = score(doc=34,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 34, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=34)
      0.25 = coord(1/4)
    
    Abstract
    Evaluation ist an der Medizinischen Universität Wien ein wichtiges Thema. So werden die Ressourcen innerhalb der Universität entsprechend der in den Leistungskriterien definierten Bewertungsmethode verteilt, deren Grundlage ein für jeden Fachbereich eigens berechneter normierter Impact Factor darstellt. Wissenschaftliche Leistung kann aber auch auf andere Art gemessen werden. Innerhalb einer Universitätsklinik oder Forschungsgruppe werden die Publikationen der wissenschaftlichen Mitarbeiter mittels Zitierungsanalyse bewertet. Für eine Bewerbung auf bestimmte Stellen müssen die einzelnen Wissenschaftler jeweils aktuelle Zitierungsanalysen vorlegen. Seit 2005 stellt die Universitätsbibliothek der Medizinischen Universität Wien am Campus die Datenbank Scopus zur Verfügung. Dabei handelt es sich nicht nur um eine weitere naturwissenschaftliche Literaturdatenbank, sondern um ein Konkurrenzprodukt zum Web of Science, dessen Schwerpunkt in der Suche der Referenzfelder liegt und so die Beantwortung der Fragestellung, wie oft eine wissenschaftliche Publikation zitiert wird, ermöglicht. Im seltenen Idealfall liegt eine vollständige Publikationsliste vor, von der ausgehend man eine Zitierungsanalyse starten kann. Meist aber besteht der Wunsch, nur anhand eines Autorennamens und dem Wissen, in welchem Fachgebiet jemand wissenschaftlich tätig ist, rasch die Suche nach Zitierungen zu beginnen. Im Web of Science führt der Weg über eine Cited Reference Search zu einem Cited Reference Index, aus dem man die Zitierzahlen (Times Cited) zu den einzelnen Publikationen eines Autors entnehmen kann. Als Cited Author scheinen neben dem Erstautor auch alle Mitautoren auf, vorausgesetzt die Zitierung bezieht sich auf eine Publikation, die als Source Item im Web of Science in dem Zeitraum erscheint, der für die Institution subskribiert wurde. Abschließend müssen die einzelnen Zitierzahlen eigenhändig addiert werden und ergeben so die Gesamtzahl der Zitierungen für einen bestimmten Autor. In Scopus wird nach einer Autorensuche ein Document Citation Overview geboten, der die Publikationen nach Erscheinungsjahr gereiht auflistet und gleichzeitig in einer Übersichtstabelle die Zitierzahlen pro Publikation und Jahr sowie die jeweiligen Gesamtzahlen angibt.
  7. Schröder, C.: Textschnipsel des Weltwissens : Verlagen bereitet die Digitalisierung von Büchern Sorge, Forscher plädieren für die ungehinderte Verbreitung ihrer Werke im Internet (2006) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 113) [ClassicSimilarity], result of:
          0.02479987 = score(doc=113,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 113, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=113)
      0.25 = coord(1/4)
    
    Content
    "Wem gehört das Weltwissen? Der ganzen Welt natürlich, so würde man spontan antworten. Also müsste theoretisch das Wissen der Welt auch der ganzen Welt jederzeit zugänglich sein - sofern dies technisch denn möglich wäre. Im Rechtsstreit des InternetRiesen Google mit der Wissenschaftlichen Buchgesellschaft (WBG), die ihren Sitz in Darmstadt hat, trafen nun diverse Interessen- und Rechtslagen aufeinander. Dass die Buchgesellschaft ihre Klage zunächst zurückgezogen hat, heißt noch lange nicht, dass die Auseinandersetzung beendet wäre. Der Hintergrund: Seit 2004 baut die Internet-Suchmaschine ihr Portal "Google Print" (www.print.google.com) auf. Dort können digitalisierte Auszüge, zunächst aus englischsprachigen Büchern, kostenlos angeklickt und gelesen werden können. Google wirbt gar bei den Verlagen, die Bücher in das Projekt einzubinden, weil dies die denkbar beste Werbung sei. Umstritten ist jedoch vor allem die so genannte Opt-Out-Regelung, wonach ein Verlag explizit Widerspruch anmelden muss, wenn er mit einer Teilveröffentlichung seiner Werke nicht einverstanden ist. Anders gesagt: Google nimmt sich zunächst das Recht, Bücher, wenn auch nur auszugsweise, ohne Genehmigung des Urhebers online verfügbar zu machen. Mit Unterstützung des Börsenvereins des Deutschen Buchhandels wollte die WBG gerichtlich verhindern, dass auch Werke aus Deutschland eingescannt werden. Die Klage wurde nun zurückgezogen, weil das Hamburger Gericht erstens keine Urheberrechtsverletzung erkennen konnte und sich zudem für nicht zuständig erklärte, weil das Einscannen selbst in den USA vorgenommen wird. Hintergrund Urheberrechtsnovelle Die Furcht der Verlage dürfte nicht unbegründet sein, gerade vor dem Hintergrund, dass in Deutschland zur Zeit der Entwurf einer Urheberrechtsnovelle heftig diskutiert wird, wonach es Bibliotheken erlaubt werden soll, ihre Bestände in digitalisierter Form beliebig oft ihren Besuchern zur Verfügung zu stellen. Das könnte im Extremfall zur Folge haben, dass beispielsweise die Anschaffung eines einzigen Exemplars eines Titels ausreichend wäre, um eine ganze Universität damit zu versorgen. So weit ist es allerdings noch nicht. Und auch Google Print dürfte in seiner jetzigen Form für keinen Verlag zu einer Gefahr werden - zwei bis drei Textschnipsel pro Buch ersetzen noch nicht den Kauf. Doch die Tendenz ist klar, und die Klage der WBG sollte mit Sicherheit auch Signalcharakter haben; man überlegt dort, nun vor dem Bundesgerichtshof in Karlsruhe einen Musterprozess anzustrengen. Den Interessen der Verlage stehen hingegen die von Forschern, gerade aus dem naturwissenschaftlichen Bereich, entgegen, die für das Recht auf ungehinderte Verbreitung ihrer Arbeiten im Internet plädieren. Google jedenfalls, das steht fest, wird weiterhin Konzepte entwickeln, um das Wissen der Welt unter dem Label "Google Print" zu systematisieren."
  8. Lüke, R.: Frisiertes Wissen : Die Internet-Enzyklopädie Wikipedia tut sich bisweilen noch schwer mit der Qualitätssicherung (2008) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 904) [ClassicSimilarity], result of:
          0.02479987 = score(doc=904,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 904, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=904)
      0.25 = coord(1/4)
    
    Content
    "Wer wollte bestreiten, dass es sich bei der kostenlosen Internet-Enzyklopdie Wikipedia um eine segensreiche Erfindung handelt? So hat die virtuelle Wissenssammlung inzwischen einen Standard erreicht, der Herausgebern traditioneller Lexika in Buchform das Leben schwer macht. Doch da bei Wikipedia jeder mitschreiben darf, gibt es immer wieder Probleme, zumal bei Artikeln zu Organisationen, Parteien oder Firmen. Denn die haben ein Interesse daran, ihr Image nicht durch Wikipedia angekratzt zu sehen. Und sind deshalb überaus aktiv, wenn es darum geht, missliebige Passagen zu löschen. So hat die die Freiburger Filiale der Naturschutzorganisation Bund unlängst beklagt, dass die deutsche Atom-Lobby jedwede kritische Anmerkung zu den Risiken ihres Gewerbes aus Artikeln entfernt hat und auch Links zu Umweltschutz-Organisationen von diesen Seiten regelmäßig verschwinden. Und die Supermarktkette Real tilgte vor Jahren Einträge, die sie nicht ganz unberechtigt in Zusammenhang mit vergammeltem Hackfleisch brachte. Doch wie unliebsame Kritik von manchen Seiten verschwindet, ist auch der umgekehrte Weg gängige Praxis. Als der Eintrag über den ehemaligen Bundespräsidenten Johannes Rau plötzlich um einen Passus "Kritik und Misserfolge" erweitert wurde, führten die Spuren der Änderung zu einem Rechner, der in der Münchener CSU-Zentrale stand: Über die IP-Adressen ließ sich verfolgen, von welchem Computer die Änderungen vorgenommen wurden. Solche Fälle hat auch WDR.de auf einer informativen Seite zum Thema "Wikipedia" aufgelistet - mit dem kleinen Schönheitsfehler, dass nicht erwähnt wird, mit welchem Eifer auch der eigene Sender durch Manipulationsversuche einst auffiel, etwa bei der Debatte um eine mögliche Wiederwahl von Ex-Intendant Fritz Pleitgen - inzwischen ist das allerdings korrigiert worden. Bei Wikipedia ist man sich des Problems bewusst und hat ein Markierungssystem entwickelt, dass manche Artikel mit den Zusätzen "gesichtet" oder "geprüft" versieht. Doch fehlt dem Eintrag zum Promi Fritz Pleitgen bis heute jedes Gütesiegel."
  9. Zeitmaschine im Internet (2007) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 1723) [ClassicSimilarity], result of:
          0.02479987 = score(doc=1723,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 1723, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1723)
      0.25 = coord(1/4)
    
    Content
    "Sie ist ein beliebtes, manchmal in der Not gefundenes Geschenk: die Originalzeitung, die am Tag der Geburt erschien. Die Webseite www.miomi.com bietet das nun für jeden Tag im Jahr - und fordert die Surfer zum Mitmachen auf. Bei Miomi, zuvor bekannt als "design the time", geht es um Geschichte und Geschichten. Nicht nur die Geschichte, die wir aus den Schulbüchern kennen, sondern um die von allen. Jeder, so das Grundprinzip von Miomi, soll wichtige Momente seines Lebens in Form von Texten, Bildern, Videos oder Tondokumenten einstellen können. Oder auch an der Geschichte anderer mitarbeiten. Wer etwa einen Beitrag über ein Konzert liest, kann sich über den »I was there«-Button in die Diskussion einklinken, eigene Fotos vom Konzert hochladen oder einen Kommentar hinterlassen. Natürlich muss man seine privaten Erinnerungen nicht mit der ganzen Welt teilen: In verschiedenen Stufen können Nutzer ihre Beiträge auch vor anderen Surfern verstecken. Sicher sind nicht alle Ideen in Miomi brandneu: Flickr, YouTube oder MySpace bieten ähnliche Features. Trotzdem fasziniert das Konzept dieses neuen Portals. Denn egal, ob ein Ereignis für die Allgemeinheit relevant ist oder nicht, jeder kann Geschichte schreiben und seine Erinnerungen für die Welt festhalten. Was am Ende relevant ist, entscheiden übrigens keine Historiker, sondern die User. Gefällt ein Eintrag, genügt ein Klick auf »Love it« und der Beitrag steigt im Ranking. Andernfalls bewirkt »Hate it« das Gegenteil. Thomas Whitfield, einer der Gründer von Miomi, erklärt im Gespräch mit CHIP: "Mit Miomi wird Geschichte demokratisiert." Selbst Microsoft, das bislang ja nicht als Trendsetter im Web auffiel, ist von dieser Idee begeistert und hat Miomi den Datenbestand der Microsoft Encarta zur Verfügung gestellt - ebenso soll das gesammelte Wissen der Wikipedia bis zum Jahresende integriert werden. Zusammen mit seiner eigenen "User Generated History" soll Miomi so zum größten Geschichtsbuch der Welt werden."
  10. Geyer, S.: ¬Die Macht der Ein-Mann-Shows : Weblogs sind zu einer festen Größe im US-Wahlkampf geworden (2008) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 2798) [ClassicSimilarity], result of:
          0.02479987 = score(doc=2798,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 2798, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2798)
      0.25 = coord(1/4)
    
    Content
    "Soso, dafür interessiert sich also die US-Jugend: Fast 88.000 Mal wurde gestern auf der Internet-Plattform YouTube ein Video der Schauspielerin Demi Moore abgerufen, die neue Modefotos vorstellt, 178.000 Mal Britney Spears' Auftritt in einer Sitcom - und 1,28 Millionen Mal ein TV-Beitrag, der Hillary Clinton der Wahlkampflüge über ihren Bosnien-Besuch überführt. Zu den meistgesehenen Videos des Monats zählt gar eine 37-Minuten-Polit-Ansprache: Barack Obamas Grundsatzrede zur Rassenfrage. Rund vier Millionen sahen das Web-Video seit vorigem Dienstag, Tausende debattieren das Thema im Netz. Zuvor hatte sich zuvor eine zum Rap aufgemotzte Obama-Rede wie ein Virus verbreitet. Es ist nicht mehr zu leugnen: Gerade die einst als Tagebücher von Hobby-Journalisten belächelten Blogs sind in den USA zur Macht geworden, die kein Politiker mehr ignorieren kann. Was 1998 damit begann, dass Klatschreporter Matt Drudge die von Newsweek zurückgehaltene Meldung über Bill Clintons Sexaffäre ins Netz stellte, gipfelt im Wahlkampf 2008: Tausende Ein-Mann-Magazine recherchieren - meist aus reiner Politbegeisterung -, wo Politiker lügen und verbreiten blitzschnell jede Meldung über Fehltritte, aber auch haltlose Schmähungen. Harmlos sind da Videos, auf denen Republikaner McCain "Bomb, Bomb, Iran" singt. Doch auch Clintons Lüge, sie sei 1996 in Bosnien von Heckenschützen beschossen worden, wäre ohne die Blogosphäre kaum überprüft worden. Obama hätte sich nicht zur Rassen-Rede gedrängt gefühlt, wären nicht die Hasspredigten seines Ex-Pastors Jeremiah Wright "in Endlosschleife im TV und auf YouTube gelaufen", wie er sagt. Schon sehen Wissenschaftler eine basisnähere Demokratie dämmern. "Das ist der erste Wahlkampf, der von Technik definiert wird", schwärmt Medienexperte Garrett Graff im Washingtonian. Jeder könne als Blogger selbst in die Politik eingreifen. Zwar fand jetzt das Washingtoner Pew Research Center heraus, dass die Mehrheit der Amerikaner sich vor allem aus "alten" Medien informiert. Aber: "Mundpropaganda und Spendenakquise übers Web werden immer wichtiger", sagt Igor Schwarzmann, Internet-Stratege der Düsseldorfer Kommunikationsagentur Pleon. Obama erkannte das früh, sammelte mehr Spenden per Mausklick und hat mehr Fan-Blogs als die Konkurrenz. Seine Kampagne gewann also ihren überraschenden Schwung nur scheinbar aus dem Nichts." Bezugnahme auf die Videos: - http://youtube.com/watch?v=MxK7JGUqtBE (Demi Moore on late show) - http://youtube.com/watch?v=8BfNqhV5hg4 (Hillary Clintons Bosnia trip) - http://youtube.com/watch?v=pWe7wTVbLUU (Obama Speech: A more perfect union)
  11. Kleinz, T.: Wiki und das Geld der Millionäre : Online-Lexikon ist auf Spenden angewiesen (2008) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 2816) [ClassicSimilarity], result of:
          0.02479987 = score(doc=2816,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 2816, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2816)
      0.25 = coord(1/4)
    
    Content
    "Wikipedia wächst und gedeiht: Eben verkündete die Wikimedia Foundation den zehnmillionsten Artikel im kostenlosen Mitmach-Lexikon. "Als wir das Projekt 2001 gestartet haben, hätten wir nie gedacht, dass wir zehn Millionen Artikel zusammenbekämen", sagt Wikipedia-Gründer Jimmy Wales. Das sei "ein beeindruckendes Zeugnis, wie engagiert die vielen Freiwilligen an dem Projekt arbeiten". Obwohl die vielen tausend Autoren umsonst arbeiten, benötigt Wikipedia Millionen. Um den Betrieb der Online-Enzyklopädie aufrecht zu erhalten, ist das Projekt auf Spenden angewiesen. Im aktuellen Geschäftsjahr beträgt das Budget 4,6 Millionen Dollar, im nächsten sollen es mehr als 8,5 Millionen sein. Die Enzyklopädie gehört zu den zehn meist aufgerufenen Seiten im Internet. Mehr als 400 Server sind rund um die Welt mit der Auslieferung der Wikipedia-Seiten beschäftigt. "Wikipedia und ihre Schwesterprojekte haben einen enormen weltweiten Einfluss", sagt Sue Gardner, Geschäftsführerin der Wikimedia Foundation, "die Organisation war bisher allerdings sehr dürftig: wir waren unfähig, Partnerschaften einzugehen, Projekte ordentlich durchzuführen oder effektiv Spenden zu sammeln." Gardner will die gemeinnützige Wikimedia Foundation in eine schlagkräftige Organisation verwandeln; sie verlegte den Haupsitz von Florida nach San Francisco und verstärkte die Belegschaft von 10 auf 15 Angestellte. Bisher finanzierte sich die Wikimedia Foundation fast ausschließlich durch Kleinspenden. Beim letzten Spendenaufruf kamen aber nur 1,5 Millionen Dollar zusammen, weniger als ein Drittel des geplanten Budgets. Immer wieder diskutieren die Wikipedianer darüber, Werbung in die freien Online-Enzyklopädie einzublenden. Mit den Millioneneinnahmen könnte die Stiftung den Betrieb der Enzyklopädie auf Jahre sichern. Doch viele Wikipedia-Autoren lehnen das strikt ab. Werbung könnte den "neutralen Benutzerstandpunkt" der Enzyklopädie gefährden, fürchten viele. Diese Furcht teilen kommerzielle Anbieter nicht. So blendet das Online-Angebot der Encyclopedia Britannica im Artikel über Toyota schon einmal Werbung vom Konkurrenten Ford ein. Die Suche nach Geldgebern hatte jetzt Erfolg: Die Alfred P. Sloan Foundation stellte Ende März drei Millionen Dollar für den Betrieb der Online-Enzyklopädie zur Verfügung. Und wenige Tage danach spendete der IT-Milliardär Vinod Khosla eine halbe Million Dollar. Doch Wikipedia muss noch viele solcher Großspender finden, soll es weiter werbefrei bleiben."
  12. Greifeneder, E.: Hilfe auf allen Ebenen : ein Beitrag zur Forschung über Online-Hilfen in OPACs (2008) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 2936) [ClassicSimilarity], result of:
          0.02479987 = score(doc=2936,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 2936, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2936)
      0.25 = coord(1/4)
    
    Abstract
    Viele Benutzer haben Probleme im Umgang mit OPACs - das dokumentieren zahlreiche Usability-Studien in ausreichendem Maße. Benutzer benötigen also Hilfe, genauer: sie benötigen ein Online-Hilfesystem, das ihnen beim "Discovery", "Locate" und "Request"' von Dokumenten im OPAC unabhängig von den Öffnungszeiten der Bibliothek situationsgerechte Online-Hilfen anbietet. Mit dem Ausdruck "Online-Hilfe" assoziieren viele nur einen Fragezeichen-Button oder Module wie die sprechende Büroklammer der Microsoft-Office-Applikationen. Doch Online-Hilfe umfasst viel mehr, von der Rechtschreibkorrektur in Suchfeldern bis hin zu Recommender-Systemen. Definieren lässt sich Online-Hilfe als ein computergestütztes Werkzeug im virtuellen Raum, das an kritischen Stellen den Nutzer bei der erfolgreichen Durchführung einer Aktion unterstützt und/oder kontextbezogene Informationen gibt. "Kritisch" für die erfolgreiche Nutzung eines Angebotes sind solche Stellen, "an denen bei den Nutzern ein jeweils spezifisches oder differenziertes Wissen vorausgesetzt wird"2. Eine einzelne Hilfe, etwa ein erklärender Text, kann dem Benutzer nicht auf allen Ebenen der Interaktion mit dem System helfen. Deshalb ist es notwendig, mehrere Online-Hilfen zu kombinieren; man spricht dann von einem Online-Hilfesystem. Online-Hilfe ist ein wichtiges Forschungsthema, doch ist es vor allem im Bibliotheksbereich nur mangelnd theoretisch fundiert. Eine präzise Unterscheidung und Klassifikation der verschiedenen Arten von Online-Hilfen ist dabei eine notwendige Grundlage für weiterführende Analysen. Der vorliegende Beitrag erläutert die einzelnen Arten von Online-Hilfen in OPACs anhand der von der Autorin entwickelten Klassifikation nach Funktionalitäten3. Es werden vier Arten von Online-Hilfen unterschieden: erklärende Hilfen, aufbereitende/visuelle Hilfen, sucheinschränkende Hilfen und sucherweiternde Hilfen. Während die ersten beiden am Suchergebnis nichts ändern, beeinflussen sowohl die einschränkenden als auch die erweiternden Hilfen das Suchergebnis. Abbildung 1 zeigt die Klassifikation mit ihrer weiteren Untergliederung. Die technische Komplexität der angeführten Online-Hilfen nimmt dabei - in grober Näherung - von oben nach unten zu.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.2, S.32-44
  13. Mertens, M.: ¬Ein Manager regelt Sprache und Raum (2003) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 3228) [ClassicSimilarity], result of:
          0.02479987 = score(doc=3228,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 3228, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3228)
      0.25 = coord(1/4)
    
    Content
    "Das menschliche Gehirn besteht aus zwei äußerlich fast spiegelgleichen Hälften. Doch die Kompetenzen der beiden Partner sind klar geregelt. Die linke Seite ist für Sprache zuständig, die räumlichen Fähigkeiten sitzen rechts. Hirnforscher um Gereon Fink vom Forschungszentrum Jülich konnten nun erstmals nachweisen, wo sich die Schaltzentrale befindet, die eingehende Aufgaben an den jeweils zuständigen Sachbearbeiter weiterleitet. Sie fanden heraus, dass ein Bereich im Stirnhirn die Arbeit im Gehirn einteilt und koordiniert, berichten sie im Wissenschaftsmagazin Science (Bd. 301, S. 384, 2003). Die Hirnforscher baten Versuchspersonen, kurze Hauptwörter zu betrachten, in denen ein Buchstabe rot gefärbt war. Nun erhielten die Teilnehmer unterschiedliche Aufträge: Mal sollten sie angeben, ob das jeweils gezeigte Wort den Buchstaben A enthielt - eine sprachliche Aufgabe also. Ein andermal wurden die Teilnehmer gefragt, ob der rote Buchstabe rechts oder links der Wortmitte stand - hier war die räumliche Wahrnehmung gefordert. Nicht der Augenschein zählt, sondern der Auftrag: Die Forscher beobachteten die erwartete Arbeitsteilung - mal war die rechte, mal die linke Hirnhälfte besonders aktiv. Mit Hilfe der Magnetresonanz-Tomographie, die misst, wie gut das Hirngewebe mit Sauerstoff versorgt wird, machten sie diejenigen Bereiche des Hirns sichtbar, die gerade intensiv arbeiteten. Dabei spürten die Neurologen einen weiteren aktiven Bereich im Stirnhirn auf, den so genannten 'anterior cingular cortex (ACC)'. Es zeigte sich, dass dieses Kontrollzentrum für Managementaufgaben zuständig ist und darüber entscheidet, welche Hirnhälfte die Arbeit erledigen muss. "Der linke Teil des ACC arbeitete immer intensiver mit der Sprach-Region der linken Hirnhälfte zusammen, während die Entscheidung zu Gunsten der Buchstabenerkennung fiel. Im anderen Fall nahm der Einfluss des rechten ACC auf den Scheitellappen der rechten Hirnhälfte zu", erklärt Teamkollege Klaas Stephan. Damit konnten die Forscher zum ersten Mal direkt verfolgen, wie die verschiedenen Regionen des Gehirns miteinander kommunizierten, während sie ein Problem beurteilten und die Zuständigkeit ermitteln. "Wir sehen auf diese Weise, wie sich die verschiedenen beteiligten Hirnregionen miteinander unterhalten, und wie sich das 'Gespräch' verändert, wenn die Aufgabe wechselt", erläutert Gereon Fink. Die Neurologen hoffen nun, dass ihre Erkenntnisse bei der Therapie von Menschen helfen können, deren Kontrollmechanismen etwa infolge eines Schlaganfalls gestört sind."
  14. Virtuelle Welten im Internet : Tagungsband ; [Vorträge und Diskussionen der Fachkonferenz des Münchner Kreises am 21. November 2007] / [Münchner Kreis] (2008) 0.01
    0.0061999676 = product of:
      0.02479987 = sum of:
        0.02479987 = weight(_text_:und in 3926) [ClassicSimilarity], result of:
          0.02479987 = score(doc=3926,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.2191754 = fieldWeight in 3926, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3926)
      0.25 = coord(1/4)
    
    Abstract
    - Wachstumsfeld 3D-Internet - wertvolle Informationen hochkarätiger Fachleute Virtuelle Welten entwickeln sich in der industrialisierten Welt zu einem Massenphänomen. Millionen Menschen schaffen sich eine zweite Identität in Second Life, agieren als künstliche "Wesen", den Avataren in virtuellen Umgebungen oder spielen Online-Rollenspiele. Der Reiz der virtuellen Welten liegt in der Überwindung der Grenzen, die in einem realen Leben gesetzt sind. Ganz neue Geschäftsmöglichkeiten können hier entstehen. Ein Unternehmen nach dem anderen baut daher seine Insel in den virtuellen Welten. In zahlreichen Beiträgen erhalten Sie in diesem Band wertvolle Informationen, um selbst in den virtuellen Welten operieren zu können: - Boas Betzler von IBM Research, Wappingers Falls, NY erläutert Anforderungen an die technologische Infrastruktur, - Claus Nehmzow von der PA Consulting Group, London nimmt sie mit auf eine Geschäftsreise in Second Life, - Daniel Michelis von der Universität der Künste, Berlin zeigt, wie Sie Ihren Avatar studieren lassen können, - Dr. Wolfram Proksch von Proksch & Fritsche Rechtsanwälte, Wien klärt auf über Cyberspace Regulation, - Robert Gehorsam von Forterra Systems, NY berichtet über Erfahrungen mit Mitarbeiterschulung in den virtuellen Welten und - Jean Miller von Linden Lab, San Francisco beleuchtet Entwicklungsmöglichkeiten, die sie für Second Life sieht. Ungezählte weitere Aspekte der faszinierenden virtuellen Welten werden behandelt und geben Ihnen Antwort zu vielfältigen Fragestellungen, die sich in diesem Zusammenhang stellen (sollten).
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  15. Beenken, M.: Klares Bekenntnis zu Wissensmanagement : Ressource Wissen gewinnt an Bedeutung in deutschen Unternehmen (2003) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 6894) [ClassicSimilarity], result of:
          0.024012372 = score(doc=6894,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 6894, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6894)
      0.25 = coord(1/4)
    
    Content
    Vor dem Hintergrund einer immer dynamischeren wirtschaftlichen Entwicklung sowie der zunehmenden internationalen Verflechtung in zahlreichen Industriezweigen, gewinnt Wissen bereits seit Jahren als betriebswirtschaftliche Ressource für Unternehmen an Bedeutung. Anbieter von Fachinformationen - wie beispielsweise auch LexisNexis - haben ein grundlegendes Interesse daran, die Entwicklungen im Bereich des Wissensmanagements genau zu verfolgen. Ziel der im März 2003 durchgeführten Studie war es daher, ein realistisches Bild zum aktuellen Stand des Wissensmanagements in Deutschland zu geben. Befragt wurden Führungskräfte der ersten und zweiten Ebene aus 303 Unternehmen. Die telefonische Befragung fand in der ersten Märzhälfte 2003 statt. Jeweils zu gleichen Teilen stammten die Befragten aus den Branchen Banken / Versicherungen, Beratung, Medien, Pharma/Chemie sowie Automobil/Maschinenbau. Damit stand für jede der Branchen eine Stichprobe zur Verfügung, die aussagekräftige Schlüsse für die Grundgesamtheit zulässt. Wichtigstes Ergebnis der Studie: Wissen/Information wird von deutschen Unternehmen allgemein als wichtige Ressource anerkannt. Höhere Werte erreichte in der Studie lediglich die Ressource "Qualifizierte Mitarbeiter". Trotz eines klaren Bekenntnisses zu Wissensmanagement, zeigten die befragten Unternehmen noch Zurückhaltung bei Investitionen in Wissensmanagement wie beispielsweise die Einrichtung von Stellen oder Investitionen in Informationsdienste und in Systeme für Wissensmanagement. Wissen in Form konkreter Daten - beispielsweise Kundendaten, Daten zu Marktanteilen etc. - wird von deutschen Unternehmen im Schnitt als wichtiger eingestuft als Prozess Know-how - beispielsweise Vertriebserfahrung. Bevor in Wissensmanagement investiert wird, wollen die Unternehmen in der Mehrheit sichergehen, dass ein Nutzen zu erwarten ist. Effizienzmessung spielt daher eine zentrale Rolle. Die am häufigsten genutztenVerfahren sindAudits sowie Kennzahlensysteme.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.5, S.300-304
  16. Weisweiler, H.: Zusätzliche verbale Sacherschließung in englischer Sprache : Zeitschrifteninhaltsdienst Theologie (2001) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 6957) [ClassicSimilarity], result of:
          0.024012372 = score(doc=6957,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 6957, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6957)
      0.25 = coord(1/4)
    
    Abstract
    Seit März 1996 werden die Dokumentbeschreibungen rezenter Aufsätze in der Tübinger Datenbank "Zeitschrifteninhaltsdienst Theologie (ZiD)" verbal sacherschlossen nach einer Methode, die sich an die RSWK anlehnt und im Wesentlichen auf der SWID basiert. Bereits ein Jahr zuvor war eine Grobklassifikation implementiert worden, die selbstverständlich ebenfalls die Möglichkeit eines verbalen Einstiegs bietet. Da die ZilD-Datenbank den Anspruch erhebt, unselbständig erschienene theologische Literatur unabhängig von ihrer nationalen Provenienz, also international, zu repräsentieren und zu erschließen, da sie seit einigen Jahren auf dem nordamerikanischen Markt von der American Association of Theological Libraries (ATLA) vertrieben wird, vor allem jedoch, da sie über eine englischsprachige Benutzeroberfläche nebst englischen Hilfetexten verfügt, war eine zusätzliche englischsprachige Sacherschließung von jeher ein Desiderat, dessen Verwirklichung sich allerdings aufgrund der Personalsituation verbot: Für jährlich annähernd 20.000 Erschließungsfälle stehen zwei (!) Indexierer zur Verfügung, die zudem jeweils noch etliche weitere Aufgaben haben. Dass unter diesen Umständen an eine titelbezogene doppelte verbale Sacherschließung nicht zu denken ist - von den Fragen nach einem zugrunde zu legenden Regelwerk und nach der Sprachkompetenz der Indexierer einmal ganz abgesehen - , dürfte allgemein einleuchten. Einen Ausweg aus dem Dilemma boten schließlich, wie schon in manch anderem Fall, die Windows-Programme von allegro, deren Mächtigkeit kaum zu überschätzen ist. Sie erlauben die Einbindung eines Find-Befehls in die Anzeigeparameter, eine Möglichkeit, von der die ZiD-Datenbank reichlich Gebrauch macht. Sie ist auch die Grundlage einer englischsprachigen verbalen Sacherschließung, deren Aufbau ein gegenwärtig mit Stammpersonal als "Parergon" durchgeführtes kleines Projekt darstellt, mit dessen relativem Abschluss innerhalb eines Zeitraums von ca. zwei Jahren zu rechnen sein dürfte. Die ZiD-Datenbank weist eine flache Datenstruktur auf, d.h., sie arbeitet nicht mit Stammsatzverknüpfungen. Einmal getroffen, lässt sich diese Grundentscheidung angesichts eines Volumens von mittlerweile weit über 150.000 Aufsatznachweisen, deren größerer Teil eine verbale Sacherschließung aufweist, nicht mehr revidieren
  17. lon: Nerven beim Speichern von Erinnerungen zugeschaut : Gehirnforschung (2003) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 6960) [ClassicSimilarity], result of:
          0.024012372 = score(doc=6960,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 6960, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6960)
      0.25 = coord(1/4)
    
    Content
    "Die Bildung von Eiweißstoffen in der lebenden Nervenzelle haben Max-PlanckWissenschaftler jetzt mit einem neuen Testsystem sichtbar gemacht. Damit sind sie der molekularen Basis von Lernen und Gedächtnis auf der Spur. Die molekularen Grundlagen des Lernens und Erinnerns sind ein immer noch weitgehend unverstandenes Rätsel. Wissenschaftler gehen davon aus, dass die dem Gedächtnis zugrunde liegenden Prozesse an den Kontaktstellen zwischen den Nervenzellen, den so genannten Synapsen, stattfinden. In der April-Ausgabe der Zeitschrift Molecular Biology of the Cell (Vol. 14: 1570-1582) stellen Wissenschaftler des Max-Planck-Instituts für Entwicklungsbiologie in Tübingen ein neuartiges Testsystem vor, mit dem sie die Bildung von Proteinen in einer lebenden Nervenzelle direkt sichtbar machen. Dazu griffen die Forscher um Michael Kiebler auf ein sehr effizientes System zurück, das Zellen benutzen, um die Eisenkonzentration in ihrem Inneren genauestens zu regulieren. Auf diese Weise werden normalerweise Eisentransport- oder Eisenspeicherproteine nur dann in der Zelle hergestellt, wenn sie wirklich gebraucht werden. Setzt man einen solchen "Eisenschalter" vor eine beliebige Reporter-RNA (Blaupause), die den Bauplan für das Grüne Fluoreszierende Protein (GFP) enthält, wird dieses Protein nur in Anwesenheit von Eisen erzeugt. Tatsächlich aktivierte die Anwesenheit von Eisen die Proteinsynthese, die über die grüne Fluoreszenz des Reporterproteins direkt in der Zelle optisch nachweisbar ist. Doch zudem registrierten die Forscher eine deutliche Steigerung der Neusynthese des Proteins, wenn die untersuchten Neuronen gleichzeitig elektrisch aktiv waren. Damit haben die Wissenschaftler einen ersten Hinweis darauf gefunden, dass die synaptische Aktivität die lokale Proteinsynthese regulieren könnte. In ihrem Gefolge eintretende molekulare Veränderungen würden dann dazu führen, dass Synapsen in ihrem gesamten Aufbau reorganisiert und stabilisiert werden. Dies könnte eine der molekularen Grundlagen von Lernprozessen darstellen."
  18. deu: Suchmaschinen gegen den Infostau : Deutsches Forschungsnetz (2001) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 725) [ClassicSimilarity], result of:
          0.024012372 = score(doc=725,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 725, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=725)
      0.25 = coord(1/4)
    
    Content
    "Das Web wuchert. Das Informationsangebot lässt zwar mit Maschinen nach Stichwörtern durchsuchen. Doch die Ergebnisse sind teils ernüchternd oder erschlagend: Die Fundlisten sind lang und trennen nur manchmal die Spreu vom Weizen. Da geben nicht nur Normalnutzer schnell auf. Auch Studierende streichen die Web-Segel. Nur wenige beschaffen sich wissenschaftliche Informationen aus dem Internet, ergab eine Studie der Sozialforschungsstelle an der Universität Dortmund. Zwar grast knapp zwei Drittel des akademischen Nachwuchses das Web mit den üblichen Suchmaschinen ab - durchaus auch nach fachlichen Informationen. Doch es herrscht allgemeine Unzufriedenheit mit den Ergebnissen der Recherchen. Wichtigster Kritikpunkt: ein umfassendes Auflisten aller Treffer ist meist nur hinderlich. Biologen etwa, die nach Veröffentlichungen über Eiweiße suchen, sind weniger an Küchenrezepten mit Eischnee interessiert - die sie aber mitserviert bekommen. Selbst die Recherche nach "Protein ohne Eiweiß", die bei einigen Suchmaschinen möglich ist, führt noch zu einem mittleren Informationsstau. Eine Maschine, die sich in Biologie auskennt und ausschließlich dieses Feld beackert, wäre gut. Im Auftrag des Bildungsministeriums entwickelt der Verein zur Förderung eines Deutschen Forschungsnetzes (DFN) nun solche fachspezifischen Suchmaschinen. Wie üblich, soll die Software unablässig im Netz stöbern - und die Funde nach einem Schlagwortkatalog festgelegten Fachgebieten zuordnen. Anfragen durchstöbern dann nur die entsprechende Sektion. Der Bezug der Dokumente untereinander, die Links auf den Seiten werden zur Bewertung herangezogen. Damit, hoffen die Forscher, sei ein effektives Ranking möglich: Die Dateien, auf die am häufigsten verwiesen wird, landen ganz oben. Die erfolgreiche allgemeine Suchmaschine Google arbeitet nach diesem Prinzip. Das Ministerium zahlt dafür 1,2 Millionen Mark. DFN-Chef Eike Jessen: "Spätestens im Frühjahr 2003 soll die innovative Suchsoftware für die Mitglieder des DFN-Vereins sowie für andere akademische Einrichtungen frei verfügbar sein.""
  19. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 2526) [ClassicSimilarity], result of:
          0.024012372 = score(doc=2526,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 2526, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2526)
      0.25 = coord(1/4)
    
    Abstract
    Die Hierarchie schien klar: Erst kommt die Suchmaschine Google - und dann lange nichts. Doch 5 Newcomer greifen jetzt den Marktführer an. Ihr Ziel heißt: Finden statt Suchen. - Mit 2 Abbildungen, u.a. einem Marktüberblick aus 02'2003
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  20. ¬Die "Sieben Kammern des Wissens" (2003) 0.01
    0.006003093 = product of:
      0.024012372 = sum of:
        0.024012372 = weight(_text_:und in 2949) [ClassicSimilarity], result of:
          0.024012372 = score(doc=2949,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.21221566 = fieldWeight in 2949, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2949)
      0.25 = coord(1/4)
    
    Content
    "Der Meister des Wissens "Brock Lee" begleitet die Spieler durch die Fragen, die es in den sieben Kammern, darunter die Kammer der Erde, des Lesens oder des Hörens, zu entdecken gilt. Wird eine Frage falsch beantwortet, hilft der Weise dem Irrenden mit einem Hinweis, der ihn auf die richtige Spur lenken soll. Erst nach der richtigen Beantwortung aller sieben Fragen ist die Teilnahme an der Verlosung möglich, oder der Spieler kann ein neues Spiel beginnen. Zu gewinnen gibt es jeden Monat Preise vom Kalender "Was so nicht im Lexikon steht" über die Rechtschreibkorrektursoftware "Duden Korrektor" bis zur Warhol-Ausgabe des "Brockhaus in 15 Bänden". Die neue Version des "Brockhaus multimedial 2004" ist vor wenigen Wochen mit zahlreichen neuen Features in den Handel gekommen. Das Multimedia-Lexikon bietet 240.000 Artikel mit 315.000 Stichwörtern, darunter 120.000 Wörterbucheinträge. Insgesamt enthält die Premiumversion nun 17 Millionen Wörter. Neu sind neben einem Atlas mit rund zwei Millionen Karteneinträgen und einem einzigartigen Höhenmodell auch ein Englisch-Wörterbuch mit 120.000 Einträgen und ein Bereich mit Grundlagenwissen für die wichtigsten Schulfächer. Hinzugekommen sind bei der neuen Version wieder neue Videos sowie rund 1.500 neue Bilder und 1.000 neue redaktionell ausgewählte Web-Links. Der "Brockhaus multimedial 2004 premium" auf sechs CDs oder einer DVD kostet 99,95 Euro, der Preis für den "Brockhaus multimedial 2004" auf vier CDs oder einer DVD beläuft sich auf 49,95 Euro."

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications