Search (4748 results, page 188 of 238)

  • × year_i:[2000 TO 2010}
  1. Neuroth, H.: Suche in verteilten "Quality-controlled Subject Gateways" : Entwicklung eines Metadatenprofils (2002) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3522) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3522,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3522, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3522)
      0.25 = coord(1/4)
    
    Abstract
    Die seit ca. 1996 rasche Entwicklung des Internet bzw. des World Wide Web (WWW) hat die Praxis der Veröffentlichung, Verbreitung und Nutzung wissenschaftlicher Informationen grundlegend verändert. Um diese Informationen suchbar und retrievalfähig zu gestalten, ist in den letzten Jahren international viel diskutiert worden. Ein vielversprechender Ansatz, diesen neuen Herausforderungen zu begegnen, liegt in der Entwicklung von Metadatenprofilen. Da durch das Internet verschiedene Datenbestände, die von unterschiedlichen Bereichen wie Museen, Bibliotheken, Archiven etc. vorgehalten werden, unter einer Oberfläche durchsucht werden können, können Metadaten auch in diesem Bereich dazu beitragen, ein einheitliches Konzept zur Beschreibung und zum Retrieval von Online-Ressourcen zu entwickeln. Um die verteilt liegenden Dokumente unter einer Oberfläche für eine qualitativ hochwertige Recherche ("Cross-Search`) anbieten zu können, ist die Verständigung auf ein Core-Set an Metadaten und daran anschließend verschiedene Mappingprozesse ("Cross-walk`) von den lokalen Metadatenformaten zu dem Format des Core-Set an Metadaten notwendig. Ziel des Artikels' ist es, die einzelnen Schritte, die für die Entwicklung eines Metadatenprofils für die gemeinsame Suche über verteilte Metadatensammlungen notwendig sind, aufzuzeigen.
    Source
    Bibliothek: Forschung und Praxis. 26(2002) H.3, S.275-296
  2. Kämper, U.: Chemie-Information (2004) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3947) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3947,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3947, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3947)
      0.25 = coord(1/4)
    
    Abstract
    Die Chemie-Information weist eine Reihe von Besonderheiten auf, die aus dem sehr aktiven Publikationsverhalten der beteiligten Wissenschaftler, aus dem hohen Anteil an praxisbezogenem Wissen und der weltweit einheitlichen Strukturformel-Taxonomie resultieren. Das Publikationsverhalten der Chemiker ist gekennzeichnet durch zahlreiche kurze und prägnante Artikel, die oft nur einen bestimmten Teilbereich einer Entwicklung beschreiben. So wird in der Regel für einen neuen Stoff die Synthese in der einen und die Strukturaufklärung mittels Spektroskopie oder Röntgenanalyse in einer anderen Zeitschrift publiziert. Im Patentbereich kommen noch die anwendungstechnischen Aspekte, wie z.B. die Verwendung eines neuen Polymers in der Kunststofftechnik oder die therapeutische Indikation bei einem pharmazeutisch aktiven Wirkstoff hinzu. Die Suche im Bereich der Chemie-Information findet in der Regel in einem der folgenden Bereiche statt: - Suche nach Sachverhalten - Suche nach Verbindungen - Suche nach Reaktionen - Suche nach Eigenschaften. Vor der Recherche in kostenpflichtigen Datenbanken steht in der Regel ein Blick in Fachlexika wie etwa Ullman's Encyclopaedia of Industrial Chemistry oder Römpp's Chemie-Lexikon. Zusätzlich bieten sich die einschlägigen Chemie-Informationen im Internet an.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  3. Wiesenmüller, H.; Jendral, L.; Schäffler, H.; Schomburg, S.; Höck, C.; Kohlmann, M.: Auswahlkriterien für das Sammeln von Netzpublikationen im Rahmen des elektronischen Pflichtexemplars Empfehlungen der Arbeitsgemeinschaft der Regionalbibliotheken (2004) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 3983) [ClassicSimilarity], result of:
          0.030999837 = score(doc=3983,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 3983, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3983)
      0.25 = coord(1/4)
    
    Abstract
    Als Archivbibliotheken der deutschen Bundesländer haben die regionalen Pflichtexemplarbibliotheken den Auftrag, die in ihrem jeweiligen Sammelgebiet erschienenen Veröffentlichungen auf der Grundlage von Pflichtexemplargesetzen zu sammeln, zu erschließen, für die Benutzung zur Verfügung zu stellen und dauerhaft zu bewahren. Neue Herausforderungen ergeben sich durch die wachsende Zahl und Bedeutung von Netzpublikationen, die künftig ebenfalls in den Sammelauftrag mit einbezogen werden müssen. Seit 2002 beschäftigt sich deshalb die Arbeitsgemeinschaft der Regionalbibliotheken in der Sektion 4 des Deutschen Bibliotheksverbands (AGRB) intensiv mit dem Thema Netzpublikationen. In einer Arbeitsgruppe wurde ein Musterentwurf für ein novelliertes Pflichtexemplargesetz auf Länderebene erarbeitet, der im Herbst 2003 in den politischen Prozess eingebracht wurde. Neben der rechtlichen Grundlage für das Sammeln von Netzpublikationen sind weitere Fragen zu klären. So werden beispielsweise technische und organisatorische Aspekte seit einiger Zeit in zwei Pilotprojekten in Rheinland-Pfalz und BadenWürttemberg praktisch erprobt. In einer gemeinsamen Arbeitsgruppe mit Der Deutschen Bibliothek wurde ein Modell für den Austausch von Metadaten und archivierten Objekten als Grundlage für entsprechende Kooperationen erarbeitet. Von besonderer Bedeutung ist die Frage, welche Arten von Netzpublikationen überhaupt gesammelt werden sollen. Mit diesem Thema hat sich eine Arbeitsgruppe der AGRB befasst, deren Ergebnisse im Folgenden vorgestellt werden
  4. Beger, G.: Mogelpackung : Der Referentenentwurf zum Zweiten Korb des UrhG (2004) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4039) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4039,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4039, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4039)
      0.25 = coord(1/4)
    
    Abstract
    Dem kontinental-europäischen, so auch dem deutschen, Urheberrecht war bislang eigen, sowohl Kultur- als auch Wirtschaftsrecht zu sein. Findet der am 29. September vom BMJ veröffentlichte Referentenentwurf zur Regelung des Urheberrechts in der Informationsgesellschaft' Eingang in das Urheberrechtsgesetz, so wird ein weiterer gravierender Schritt der Abkehr vom Kulturrecht zugunsten des Wettbewerbs vorgenommen. Durchweg dienen alle Neuregelungen vorrangig wirtschaftlichen Interessen, ohne tatsächlich die Rechte des Urhebers zu stärken und eine Balance zu den Allgemeininteressen herzustellen. Angesichts der Globalisierung des Marktes für Produkte und Dienstleistungen muss sich ein nationales Gesetz zweifelsfrei dieser Gegebenheit anpassen, um nicht an Wirkung zu verlieren. Warum aber das deutsche Urheberrecht sich allein dem amerikanischen Copyright anpassen muss, ist nicht nachzuvollziehen, zumal der WIPO-Urheberrechtsvertrag' dies nicht erforderlich macht. Die neuen Regelungen kommen nicht einmal allen am Markt Beteiligten zugute, sondern insbesondere den international agierenden Monopolen. Das findet auch seinen Ausdruck in den Schranken im Allgemeininteresse. Der aus der Praxis heraus formulierte Regelungsbedarf und die in der Arbeitsgruppe Schranken des BMJ formulierten Kompromisse' wurden zwar in den Gesetzentwurf eingearbeitet, aber dann mit einschränkenden Formulierungen versehen, die sie letztendlich zu einer Mogelpackung machen. Aus Sicht der Bibliotheksarbeit sind alle Neuregelungen unbefriedigend. Denn sie bilden meist nur den Besitzstand ab und verweisen Anwendungen, die den Einsatz von modernen digitalen Technologien und das Angebot elektronischer Medien beinhalten, zunehmend auf die Individualverhandlung mit dem Rechtsinhaber.
  5. Eibl, M.; Mandl, T.: ¬Die Qualität von Visualisierungen : eine Methode zum Vergleich zweidimensionaler Karten (2004) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4139) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4139,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4139, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4139)
      0.25 = coord(1/4)
    
    Abstract
    Zweidimensionale Karten dienen im Information Retrieval (IR) immer häufiger der Visualisierung von Dokumentbeständen. Über die Qualität der verschiedenen Methoden zur Erzeugung dieser Karten ist wenig bekannt. In diesem Artikel werden nach einem Überblick über Stand der Forschung und Technik zu Visualisierungen und ihrer Bewertung zwei Verfahren hinsichtlich ihrer Unterschiede verglichen. Die Evaluierung basiert auf der Perspektive des Benutzers beim Browsing in einer Karte. Das Experiment zeigt, dass die Methoden sowohl bei großen als auch bei kleinen Dokumentenmengen zu sehr unterschiedlichen Karten führen und zwischen den Karten keine Korrelation besteht. Das Ergebnis der Untersuchung ist in zweifacher Hinsicht interpretierbar. zum einen kann nicht davon ausgegangen werden, dass sich ein spezielles Verfahren der Dimensionsreduktion eindeutig anbietet, es muss also auf den speziellen Anwendungsfall hin überprüft werden, welches Verfahren anzuwenden ist. Zum anderen scheint aber auch kein Verfahren zu vollkommen unbrauchbaren Ergebnissen zu führen, so dass davon ausgegangen werden kann, dass die einzelnen Verfahren einander ergänzend unterschiedliche Aspekte des Dokumentbestandes beleuchten. Hierzu sollten weitere Tests folgen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  6. Koch, O.: Pyrrhus lässt grüßen (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4218) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4218,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4218, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4218)
      0.25 = coord(1/4)
    
    Content
    "»Das ist der Teufel!«, polterte vor nicht allzu langer Zeit Harold Varmus, Mitbegründer der Public Library of Science (PLoS), als in einem Interview der Name von Derk Haank fiel. Der war damals Chef der Wissenschaftssparte Elsevier innerhalb der britisch-niederländischen Fachverlagsgruppe Reed Elsevier, die mit rund 1700 Magazinen Marktführer im Fachzeitschriftengeschäft ist. Der verbale Ausfall des Medizin-Nobelpreisträgers ist nur ein Indikator dafür, wie heftig der Konflikt in diesem Bereich inzwischen tobt - PLoS und Elsevier sind dabei bloß Stellvertreter zweier Gruppierungen, die sich unversöhnlich gegenüberstehen. Die Fachverlage, angeführt von einigen Großen wie Elsevier, Thomson oder Springer Science+Business Media, wollen am klassischen »Leser-zahlt«-Modell wissenschaftlicher Informationsverbreitung festhalten. Auf der anderen Seite stehen Non-Profit-Initiativen mit ihrem Gegenentwurf des Open-Access-Modells, allen voran PLoS, DOAJ oder Biomed Central. Sie gewähren freien Zugang zu ihren im Internet publizierten Journalen - inzwischen sind es einige tausend. Zahlen müssen in diesem Modell die Wissenschaftler, die ihre Arbeiten veröffentlichen wollen. Die Idee des Open Access ist an sich nichts Neues, stellte doch schon Anfang der 1990er Jahre der amerikanische Physiker Paul Ginsparg mit dem Internetserver Arxiv.org eine Plattform für frei zugängliche Vorabveröffentlichungen bereit. Der jetzt einsetzende Boom von OpenAccess-Journalen hat seine Ursache in der so genannten »Krise der wissenschaftlichen Informationsversorgung« - der seit Jahren wachsenden Kluft zwischen Bibliotheken-Budgets und den Preisen wissenschaftlicher Zeitschriften. Diese sind dem »Library Journal« zufolge innerhalb der letzten 15 Jahre um durchschnittlich 215 Prozent gestiegen. Einzelne Journale kosten die Büchereien inzwischen mehrere tausend Euro im Jahr. Das Geld fließt in die Kassen der hoch profitablen Verlage: So wies etwa Elsevier im Geschäftsbericht 2003 eine Umsatzrendite von 33,8 Prozent aus.
    Problematisch ist dabei, dass die wissenschaftlichen Arbeiten, die in den Fachmagazinen veröffentlicht werden, meist im Rahmen staatlich geförderter Forschungsprojekte entstanden sind. Zugespitzt ausgedrückt: Die Fachverlage profitieren von Forschungsergebnissen, für die sie selbst keinen Cent bezahlt haben, und verkaufen sie anschließend für viel Geld wieder an die Universitäten und Forschungseinrichtungen zurück - zu Lasten des Steuerzahlers. Die Bibliotheken reagieren angesichts dieser Situation mit dem Rotstift und bestellen reihenweise Zeitschriften ab - die Leid Tragenden sind Studenten und Wissenschaftler. Die hohen Kosten, die auch beim Online-Bezug der Journale anfallen, rechtfertigen die Verleger mit dem Aufwand für das Layout und dem so genannten Peer-Review-Verfahren. Hier wacht ein Gremium von Wissenschaftlern, das Editorial Board, darüber, dass nur solche Artikel Eingang in das Magazin finden, die hohen wissenschaftlichen Ansprüchen genügen. Die Argumente wirken jedoch vorgeschoben: Meist sind die Board-Mitglieder Wissenschaftler, die ihre Funktion ehrenamtlich ausüben. Und die hohen Anforderungen, die von den klassischen Journalen hinsichtlich Artikel und Grafiken an die Autoren gestellt werden, lassen den großen Layout-Aufwand der Verlage zumindest fraglich erscheinen. Es sei ungerecht, den Autor zur Kasse zu bitten, die Kosten also vom Konsumenten auf den Produzenten zu verlagern, lautet ein weiteres Standardargument gegen Open Access. In der Regel trägt aber nicht der Wissenschaftler selbst diese Kosten, sondern die Institution, für die er forscht. Diese spart im Gegenzug die Abonnements der herkömmlichen Zeitschriften ein. Das klingt nach rechter Tasche, linker Tasche. Doch nach einer Studie der Bank BNP Paribas soll es die Universitäten unterm Strich tatsächlich billiger kommen. Funktionieren wird es allerdings nur, wenn sich Open Access schnell durchsetzt und viele Journale auf das neue Geschäftsmodell umstellen. Sonst zahlen die Bibliotheken doppelt - und damit drauf. Auch in den traditionellen Fachzeitschriften können die Autoren im Übrigen keineswegs immer kostenfrei publizieren. Für »Extras« wie Fotos oder Grafiken werden oft hohe Zuzahlungen fällig. Zum Beispiel verlangt das renommierte Fachblatt »Cell« 1000 US-Dollar für die erste Abbildung und 250 Dollar für jede weitere - bei PLoS dagegen sind es einmalig 1500 Dollar pro Artikel.
    Wie steht es mit der Qualitätssicherung in Open-Access-Journalen? Dem »Autor-zahlt«-Modell von vornherein Gefälligkeitsveröffentlichungen zu unterstellen, wäre unfair. Dennoch besteht diese Gefahr, wenn diejenigen, die Artikel in einer Zeitschrift veröffentlichen wollen, gleichzeitig die Geldgeber sind. Dagegen spricht jedoch, dass sich Open-Access-Magazine ebenfalls unabhängiger Experten für das Peer Review bedienen. Außerdem streben auch sie nach einem möglichst hohen Renommee, das sich danach bemisst, wie oft und wo ein Journal zitiert wird - und das erreicht man nicht durch minderwertige Beiträge. Vor denen sind übrigens auch klassische Fachzeitschriften nicht gefeit - so muss immer wieder einmal ein zweifelhafter Artikel zurückgezogen werden. Dagegen bewies »PLoS Biology« schon in seiner ersten Ausgabe, dass sich auch in einem Open-Access-Magazin Hochkarätiges findet: Der Artikel einer Forschergruppe um Miguel Nicolelis über ein Gehirn-Maschine-Interface wurde am ersten Tag so oft abgerufen, dass die Server in die Knie gingen. Bleibt abzuwarten, wann die Verlagsriesen auf den Open-Access-Boom von PLoS & Co. reagieren werden. Zwar stellten sich die Chefs von Reed-Elsevier, Morris Tabaksblat und Chrispin Davis, im Geschäftsbericht 2003 noch demonstrativ hinter das klassische Geschäftsmodell. Sie kündigten aber auch an, das »Autor-zahlt«-Modell zu beobachten und zu investieren, »wo Neuerungen nachweisbaren und nachhaltigen Erfolg« für die Wissenschaft brächten. Übernehmen die Großverlage tatsächlich das Open-Access-Geschäftsmodell, hätte Varmus sein Ziel erreicht. Doch Zweifel bleiben. Im Unterschied zu Non-Profit-Organisationen wie PLoS wollen die Großverlage Gewinn machen und haben zudem in den letzten Jahren Millionen in Onlineplattformen und in die Digitalisierung ihrer riesigen Archive investiert. Diese Summen gilt es wieder hereinzuholen - notfalls durch überhöhte Abdruckgebühren für die Autoren. Das wäre dann ein Pyrrhussieg, und Varmus hätte abermals Grund, verbal den Teufel zu bemühen."
  7. Hosbach, W.: Gates gegen Google : Neue Suchmaschine von MSN (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4221) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4221,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4221, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4221)
      0.25 = coord(1/4)
    
    Content
    Selbstbewusst klangen die Worte des Microsoft-Bosses Ballmer bei der Präsentation der neuen Suchmaschine (beta search.msn.de) Mitte November. "Wir werden die Konkurrenz einholen und überholen". Weitaus weniger selbstbewusst sieht aber das zaghafte Agieren des Software-Riesen im Markt aus. Microsoft stellt die neue Suchmaschine als Beta vor, und über das MSN-Portal ist sie gar nicht zu erreichen. Hier gibt es noch die alte Suche, für die MSN den Vertrag mit dem bisherigen Partner Overture um ein Jahr verlängert hat. Vorerst existieren also zwei MSN-Suchmaschinen. Seit langem ist Google unangefochten die Nummer Eins. Es gab keinen ernsthaften Versuch, dem Alphatier der Suchbranche das Vorrecht strittig zu machen. Denn der Erfolg beruht auf einem überlegenen Vorteil: Die Suchergebnisse sind weitaus besser als die der Konkurrenz. Google findet einfach das, was man sucht. Wenn es Google nicht findet, findet es kein Anderer. Selbst wo Google den Anwender ärgert, z.B. wenn die ersten 20 Treffer Spam sind, schaffte es bislang kein anderer Anbieter - der Hauptkonkurrent ist YahooOverture - die Nachteile für sich zu nutzen. Google erscheint dem Beobachter oft ein Microsoft der Suchmaschinen zu sein. Genau Microsoft ist nun angetreten, um Google Paroli zu bieten. Jetzt muss sich die BetaMSN beweisen. Denn als Aufstreber müssen ihre Suchergebnisse besser und aktueller sein und weniger Spam enthalten als die von Google. Geht das? Wir wollten uns überzeugen, ob MSN auf dem richtigen Weg ist und machten bei Google, AltMSN, Beta-MSN, Yahoo und Web.de eine Stichprobe. Wir stellten eine Reihe von Suchfragen, wie sie aus Alltagssituationen entstehen könnten, und prüften jeweils die ersten zehn Treffer. Zur Suchsuppe Ein Anwender, der sich einen Trojaner eingefangen hat, will ihn loswerden. In der Suchmaschine gibt er ein: "trojaner entfernen"
    Als Ergebnisse erwartet er Seiten mit Anleitungen, Tipps, Know-how, Forenbeiträgen oder auch Produktinfos. Bei der Lösung dieses Problems liefert Google einen Volltreffer: Die ersten zehn Ergebnisse antworten genau auf das, was der Anwender wissen möchte. Vier der Ergebnisse stammen aus Foren, die einen unendlichen Wissensschatz bergen. Alt-MSN kam nur auf vier und Beta-MSN auf sechs Treffer. In beiden MSN-Listen fanden sich Spam-Seiten zu Dialern - genau so etwas möchte der Anwender aber gerade loswerden. Da ist er bei Google besser aufgehoben. Ähnlich gut wie Google zeigte sich Web.de mit neun Treffern - jedoch erst, nachdem wir die Suche durch den Ausdruck Anleitung Hilfe Entfernung eingrenzten. Web.de bekommt seine Ergebnisse ebenso wie Yahoo und Alt-MSN von Overture, wobei sich die Ergebnisse in Menge und Relevanz leicht unterschieden. Web.de bietet zusätzlich zu jedem Suchergebnis einen Themenbaum, über den sich die Suche weiter eingrenzen lässt. Im Trojaner-Beispiel verbesserte sich dadurch das Ergebnis, aber wir stellten auch das Gegenteil fest. Zum Beispiel bei unserem nächsten Test: +pizza +rezept -käse Die Suchmaschinen sollten zeigen, dass sie die Operatoren sauber ausführen und nicht doch ein Bröckchen Käse in das Ergebnis schlüpft. Google machte keinen Fehler, lieferte aber dennoch nur vier Volltreffer (mit käsefreien Pizzarezepten eben). Alt-MSN versteht die Operatoren überhaupt nicht und kam zu gar keinen Ergebnissen. Beta-MSN machte drei Syntaxfehler. Das heißt, eines der Suchworte fehlte oder Käse war zuviel. Bei Web.de fanden wir zwei leckere Pizzen, aber nach der Eingrenzung der Suche auf Pizzarezepte verließen uns die Teigfladen mit oder ohne Käse völlig: Kein einziges Pizzarezept fand sich in der Liste.
    Bei der Suche +Dell +Notebook -Pentium konnte Beta-MSN glänzen: Acht von zehn Treffern lieferten Informationen zu Dell-Notebooks ohne Pentium-Prozessor. Bei Google waren es nur sieben. Dann prüften wir weitere Operatoren. Die Anführungszeichen für einen genauen Ausdruck beherrschten alle Roboter fehlerfrei. Boolesche Operatoren wiederum können nur Beta-MSN, Yahoo und Web.de. Diese Suchhilfen werden zwar selten verwendet, liefern aber präzise Ergebnisse zu komplexen Fragestellungen -wenn die Suchmaschine die Syntax fehlerfrei beherrscht. Hier scheint BetaMSN noch zu schwächeln, den es kam zu drei Fehlern. Die nächsten Suchabfragen zielten auf Spam und Dialer: "last minute" "La Palma" und "bauanleitung vogelhäuschen" Es zeigte sich, dass alle Roboter mit Spam zu kämpfen haben, Beta-MSN vorneweg. Bauanleitungen stecken besonders gerne hinter Dialern, und so waren die ersten drei Google-Treffer kostenpflichtig (z.B. 29 Euro). Immerhin förderte Google fünf richtige Seiten hervor. Beta-MSN fand nur vier Seiten - alle unbrauchbar. Mit den letzten drei Fragen testeten wir die Aktualität der Ergebnisse. Als schwierige Testfrage stellte sich Schröder China heraus. Der erste Google-Treffer berichtet gleich von der Schröder-Reise - aber von der aus dem Jahr 2003. Denn der Kanzler reist traditionell jedes Jahr im Dezember nach China. Immerhin finden wir bei Google fünf Seiten zur aktuellen Chinafahrt, ebenso bei BetaMSN, je zwei bei Yahoo und Alt-MSN sowie drei bei Web.de. Bei der Eingabe merkel "cdu-parteitag" konnte Google nun wieder glänzen und warf zehn Treffer zum Dezember-Treffen in Düsseldorf aus. Beta-MSN kam nur auf vier. Vier weitere Seiten berichten von gar keinem Parteitag. Bei Beta-MSN tritt auffällig häufig das Problem auf (nicht nur bei dieser Suche), dass der Roboter Übersichtsseiten von Nachrichten indiziert. Zum Beispiel erschien häufiger www. spiegel.de/politik/deutschland. Doch diese Seite ändert sich stündlich. Wenn dort heute auf einen Artikel über den Parteitag hingewiesen wird, ist er morgen verschwunden. Beta-MSN müsste vielmehr die Artikel selbst in die Datenbank nehmen - so wie Google. Das angesprochene Problem ändert sich auch dann nicht, wenn der Anwender den Aktualitätsschieber hoch stellt. Denn Beta-MSN bietet die einzigartige Möglichkeit, in die Relevanz der Suche eingreifen zu können. Im Suchassistenten gibt der Anwender vor, ob ihm Aktualität, Popularität oder Präzision wichtig ist. Geholfen hat es in diesem Fall nicht. Inzwischen hat MSN ein Such-Tool für den Desktop vorgestellt. Auch hier ist Google ein Vorbild. Fazit Bislang kann sich die Beta noch nicht von anderen Suchmaschinen abheben. Sie liegt in puncto Relevanz, Präzision und Aktualität im Mittelfeld (siehe Tabelle), was an sich kein schlechter Start ist. Meist sind ihre Ergebnisse besser als die von Alt-MSN, aber noch weit von denen von Google entfernt. Links auf Seiten, die es nicht mehr gibt (Fehler 404), traten bei Beta-MSN gar nicht auf. Das spricht dafür, dass der Roboter den Index oft erneuert. Ein endgültiges Urteil schließt sich an dieser Stelle aus, denn es handelt sich um eine BetaVersion. Deswegen auch kein Test und keine Noten."
  8. Sander-Beuermann, W.: Schürfrechte im Informationszeitalter : Google hin, Microsoft her v das Internet braucht eine freie Suchkultur (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4245) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4245,freq=40.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4245, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4245)
      0.25 = coord(1/4)
    
    Abstract
    Artikel als Reaktion auf das Angebot von Google: http://scholar.google.com/. Begleitkommentar des Verfassers: Der "Google-Scholar" (http://scholar.google.com/) ist durchaus eine bemerkenswerte Entwicklung von Google, welche die Internet-Suchtechnik voranbringt - zumindest vordergruendig. Der Satz auf der Scholar Startseite "Stand on the shoulders of giants" drueckt es treffend aus: derart gigantische Ressourcen hat eben im Suchmaschinenbereich sonst niemand. Und genau DAS ist der Punkt: das Quasi-Monopol von Google (spaeter u.U. Microsoft) wird dadurch NOCH staerker werden. Ich halte diese Entwicklung fuer bedrohlich. An dieser Stelle ist kein Vorwurf an Google zu richten: dort verhaelt man sich nur so, wie es der Markt verlangt. Der Vorwurf ist dorthin zu richten, wo diese Entwicklung gesehen und ignoriert wird. Ich erlebe es immer wieder, auch in "hochrangigen" Gespraechen, dass als "Argument" gegen alternative Enticklungen vorgebracht wird "was wollt ihr da eigentlich - es gibt doch Google und die sind doch gut". Solche Kurzsichtigkeit ist kaum uebertreffbar. Von der Zeitschrift "Technology Review" des Heise-Verlages (das deutsche Pendant zum MIT-Review) wurde ich gebeten, hierzu einen Artikel zu schreiben. Sie finden diesen Artikel bei Interesse im WWW unter http://suma-ev.de/tech-rev1.html Daraus hat sich eine Diskussion ueber unabhaengige Suchmaschinen ergeben, die ich hier kurz skizzieren moechte: ----------------------------------------------------------------------- Unabhaengige Suchmaschinen sind in einem weiten Spektrum von Moeglichkeiten denkbar: 1. von voellig freien, nicht strukturierten, losen Zusammenschluessen, z.B. auf Peer-to-Peer Basis (a la YACY: http://suma-lab.de/) 2. bis hin zu staatlich gewollter Unabhaengigkeit durch gesetzliche Regelungen (aehnlich der Intention beim oeffentlich-rechtlichen Rundfunk und Fernsehen); Stichwort: oeffentlich-rechtliche Suchmaschine 3. Dazwischen sind Optionen denkbar, die beides kombinieren: eine Vielzahl von Betreibern kleinerer Suchmaschinen (Mini-Sucher), die sich zu Verbuenden organisieren, in denen Organisationen des oeffentlich-rechtlichen Raumes, wie z.B. Bibliotheken und Universitaeten als klassische Wissensvermittler, eine tragende Rolle spielen. 4. Und moeglicherweise sehen SIE noch ganz andere Moeglichkeiten ...?
    Content
    Text des Artikels: "Wenn der Rohstoff des 21. Jahrhunderts wirklich Information ist, dann unterscheidet er sich grundlegend von seinen Vorgängern Eisenerz und Erdöl: Er verbraucht sich nicht, kann endlos wiederverwertet werden, ist einfach um die ganze Welt transportierbar, und kann sich sogar durch Neuzusammensetzung vermehren. Letztere Eigenschaft, so schön sie zunächst scheint, wird allmählich zur Plage. Die Menge der weltweit vorliegenden Information wächst seit Jahrhunderten stetig. Laut einem Bericht der University of California in Berkeley schafft die Menschheit derzeit ein bis zwei Exabyte (Milliarden Gigabyte) an Information pro Jahr. Dargestellt als Text entspricht das einem Stapel von rund einer Billion dicker Bücher - dessen Höhe etwa die 130-fachen Entfernung Erde-Mond erreichen würde. Die große Herausforderung ist, aus solch gigantischen Informationsmengen das subjektiv Wesentliche - also das Wissen - herauszusuchen. Die Wissensextraktion wird im digitalen Zeitalter zunehmend von Internet-Suchmaschinen übernommen. Sie verarbeiten den Rohstoff Information zu Wissen, kontrollieren und verteilen ihn. Es kann keinem Nutzer ganz geheuer sein, dass diese Schlüsselfunktion der Informationsgesellschaft in die Hände weniger Konzerne gerät: Google hat mit einem Marktanteil von mehr als 80 Prozent in Deutschland ein De-facto-Monopol erreicht, das nun Microsoft mit seiner "MSN Search" angreifen will. Aber diese Alternative weckt schwerlich mehr Vertrauen.
    Suchmaschinen-Monopolisten können bestimmen oder kontrollieren, welche Information wann und auf welchen Rechnern verfügbar ist, und in welcher Reihenfolge die Ergebnisse angezeigt werden. Durch Beobachtung der Abrufe können die Unternehmen genaue Profile ihrer Nutzer erstellen. Um die Vormacht der kommerziellen Wissenswächter zu brechen, bedarf es einer freien Suchkultur - so wie das offene Betriebssystem Linux die Welt vor einer reinen Windows-Monokultur bewahrt hat. Immerhin scheint man auch auf staatlicher Seite das Problem des "Information Overkill" erkannt zu haben. Die öffentliche Hand fördert zahlreiche Projekte, die Ordnung in den Datenwust bringen wollen. Doch die meisten davon sind mehr visionär als realistisch. Vom einst so gefeierten "Semantic Web" etwa ist auch nach Jahren kaum Handfestes zu sehen. Kein Wunder: Solche Vorhaben setzen voraus, dass die Daten zunächst eingesammelt und suchgerecht indiziert werden. Mangels freier Software fehlt diese Voraussetzung. Was also ist nötig, um im Informationszeitalter die freie Verfügbarkeit der Ressourcen sicherzustellen? Die Antwort ist die gleiche wie einst für Kohle, Eisen und Öl: eine Vielfalt von Anbietern. Der beste Weg dorthin führt über freie Suchmaschinen-Software, auf welche die Betreiber solcher Maschinen zurückgreifen können. Dann entstünde ganz von selbst ein offener und dynamischer Wettbewerb. Freie Suchmaschinen-Software ist jedoch sehr rar. Es gibt Ansätze dazu in Russland und ein einziges Projekt in den USA (nutch.org). Auch Europa ist weitgehend Ödnis - bis auf den Lichtblick Yacy, ein Vorhaben des Frankfurter Softwarespezialisten Michael Christen. Yacy ist meines Wissen der weltweit einzige proof-of-concept einer strikt dezentralen Peer-to-Peer-Suchmaschine (suma-lab.de:8080"). Um die Suchmaschinen-Landschaft zu beleben, haben nun 13 Forscher, Politiker und Unternehmer den "Gemeinnützigen Verein zur Förderung der Suchmaschinen-Technologie und des freien Wissenszugangs" (kurz: SuMa-eV, suma-ev.de) mit Sitz in Hannover gegründet. Zu den Gründungsmitgliedern gehören der MP3-Erfinder Karlheinz Brandenburg, der Vizepräsident für Forschung der Universität Hannover Wolfgang Ertmer und ich selbst. Ziel des SuMa-eV ist die Etablierung einer auf möglichst viele autarke Systeme verteilten Suchmaschinen-Infrastruktur, die von ihrem Bauprinzip her kaum monopolisierbar ist. Der Kerngedanke dieser Struktur, die sich aus sehr vielen und sehr unterschiedlichen Bausteinen zusammensetzen kann, liegt in der Autarkie der Einzelsysteme: gesellschaftlicher Pluralismus wird netztopologisch abgebildet. Eigentlich wäre es im Interesse und in der Macht des Staats, die Meinungsvielfalt im Netz besser zu sichern. Während er - abgesehen von ein paar hellhörigen Parlamentariern - noch träumerische Visionen pflegt, müssen Initiativen wie SuMa-eV einspringen."
  9. Kuhlen, R.: Creative Commons : Im Interesse der Kreativen und der Innovation (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4504) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4504,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4504, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4504)
      0.25 = coord(1/4)
    
    Abstract
    Creative Commons (CC) ist das Verfahren, mit dem Produzenten von Wissen und Informationen selbstbestimmt Lizenzen erteilen können - in Analogie zur General Public License (GPL) im Software-Bereich, wie sie von Richard Stallman formuliert wurde (vgl. Stallman 2002). CC geht auf die Initiative von Lawrence Lessig zurück, derzeit Rechtsprofessor in Stanford, theoretisch abgesichert u.a. in seinen Büchern, die inzwischen schon Kultstatus erreicht haben (Lessig 1999, 2001, 2003). Demnach können Werke grundsätzlich frei zum Nutzen des öffentlichen Bereichs genutzt (kopiert und weiter verbreitet) werden, allerdings nur mit Referenz auf den Autor. Die kommerzielle Nutzung kann erlaubt oder verweigert werden, und auch das Recht auf Modifikation kann gewährt oder versagt werden, wobei die Modifikation selbst wieder unter die CCLizenz gestellt werden und die Referenz auf den Ursprungsautor erhalten bleiben muss. Die rechtliche Verbindlichkeit der Lizenz bindet sich an die jeweiligen nationalen Gesetze für den Schutz geistigen Eigentums zurück - für diese Verbindlichkeit haben Juristen gesorgt. Jeder Autor kann das Einhalten seiner Lizenzbedingungen so notfalls einklagen. Die CC-Lizenz gibt also jedem Autor die Möglichkeit an die Hand, die Nutzung seiner Werke, jedweder medialen Art, zu spezifizieren. Dem im Urheberrecht bzw. Copyright zu Grunde liegenden strikten »All Rights Reserved« setzt CC ein flexibles »Some Rights Reserved« entgegen, d.h. die Autoren verzichten in einem von ihnen selbst bestimmten Maße auf einige - keinesfalls auf alle - Rechte.
  10. Thomas, N.: Wissenschaft in der digitalen Welt (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4521) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4521,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4521, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4521)
      0.25 = coord(1/4)
    
    Abstract
    Die neuen Informations- und Kommunikationstechnologien haben die Wissenschaft verändert: So bewegt sich der moderne Wissenschaftler wie selbstverständlich in einer virtuellen Welt, die durch Schnelligkeit und Globalität gekennzeichnet ist. Von der Organisation, über die Wissenssammlung und -produktion bis hin zur Kommunikation, Publikation und Lehre ist mittlerweile vieles digital - und manches wird noch folgen. Der typische Arbeitsalltag eines Hochschullehrers müsste demnach so aussehen: Nachdem er in seinem Home-Office früh morgens per E-Mail ein paar studentische Anfragen beantwortet hat, sieht er auf der Webseite einer Fachzeitschrift schnell die Kommentare zu einem von ihm elektronisch publizierten Artikel durch. Hektisch diskutiert er dann auf der Online-Plattform seiner Disziplin mit Kollegen aus der ganzen Welt über die neuesten Ergebnisse eines afrikanischen Forschungsteams. Es geht hoch her, denn zwei junge Wissenschaftler aus Korea stellen die von ihm vertretenen Ansichten immer wieder in Frage. Um seinen Argumenten Nachdruck zu verleihen, verlinkt er seine Kommentare mit der dezentralen Datenbank seiner Forschungsgruppe. Nach der Mittagspause fordert er auf einer Online-Konferenz finanzielle Unterstützung für seine digitale Universität ein. Am späten Nachmittag füllt er elektronisch das Antragsformular für ein EU-Projekt aus, um sich anschließend offline mit Kollegen seines Instituts zu treffen. Sind diese Vorstellungen im Jahr 2005 nur Utopie - oder längst praktischer Alltag?
  11. Schmidt, J.: Online-Forschung : Wissen über das Netz (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4522) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4522,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4522, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4522)
      0.25 = coord(1/4)
    
    Abstract
    Parallel zur Verbreitung und Institutionalisierung des Internet hat sich die sozialwissenschaftliche Online-Forschung etabliert. Sie erzeugt in zweifacher Hinsicht »Wissen über das Netz«: Beim »Forschen mit dem Netz« nutzt sie das Medium als Instrument der Datenerhebung, beim »Forschen im Netz« betrachtet sie die Vielzahl sozialer Formen, die das Internet hervorbringt. Prominentes Beispiel für das »Forschen mit dem Netz« ist die regelmäßig durchgeführte Umfrage »Perspektive Deutschland«, bei der Bürger ihre Meinung zu aktuellen gesellschaftlichen Entwicklungen online abgeben können. Der Vorteil: Über das Internet kann schnell und vergleichsweise kostengünstig eine sehr große Anzahl von Antworten erhoben werden - die etwa 450.000 Teilnehmer bei der Umfrage von 2003 wären mit herkömmlichen schriftlichen oder telefonischen Untersuchungen nicht zu erreichen gewesen. In diesem Beitrag soll es jedoch weniger um die Diskussion gehen, welche Vor- und Nachteile das Internet als Instrument der Datenerhebung aufweist. Vielmehr werden anhand von drei Leitfragen Aspekte beleuchtet, die Online-Forschung als Mechanismus kennzeichnen, um Wissen über das Netz zu generieren: »Was wissen wir?« fragt nach, wie sich die Online-Forschung in den vergangenen Jahren entwickelt hat. - »Was können wir wissen?« zeigt die Pole auf, zwischen denen sich die Online-Forschung bewegt. - »Was wollen wir wissen?« stellt Fragen vor, die in Zukunft von der Online-Forschung bearbeitet werden sollten. Den Antworten liegt die Überlegung zu Grunde, dass die Differenzierung der Online-Forschung zu einer Fragmentierung von Wissen zu führen droht, wenn sich die Analysen auf einzelne Aspekte der Internet-Nutzung beschränken und den (Wechsel-)Wirkungen zwischen Nutzer, Technologie und sozialem Kontext nicht gerecht werden.
  12. Richard, B.: Bilderkrieg und Terrorismus (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4529) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4529,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4529, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4529)
      0.25 = coord(1/4)
    
    Abstract
    Der Terrorismus der 70er Jahre erzeugte stille Bilder. Seine klaren Ziele - z.B. die Befreiung des Landes oder die Freipressung von inhaftierten Gesinnungsgenossen - finden ihre mediale Entsprechung in der Fotografie. Erst später erobern Terroristen Bildschirm und Monitor. Mit den Ereignissen des 11. Septembers 2001 hat die Besetzung des Bildschirms durch den Terror seinen Höhepunkt erreicht. Gleichzeitig leitet die WorldTrade-Center-Attacke eine neue Phase des Bildes ein, da sie mit einem Schlag eine Fülle von gleichzeitigen Einzelbildern in Fernsehen und Internet generiert. Die neue Dimension des Terrors kennzeichnet eine sorgfältige Gestaltung der Ästhetik des Schreckens und der konsequente Einsatz der Mittel des globalen Kapitalismus. Über die erwirtschafteten Kapitalströme bauen die Terroristen ein globales Terrornetzwerk auf, das sich aller modernen Kommunikationsmittel (Handy, Internet, TVSender) bedient. Ein weiterer Schritt kündigt sich mit Nick Bergs Enthauptungsvideo an: Ziel ist der Bildschirm des vernetzten Computernutzers. Über das Internet findet eine schleichende, unkontrollierte Verbreitung der bewegten Bilder von Amateurkameras statt, der TV-Monitor wird sekundär. Dem symbolischen Bild von der Zerstörung des World Trade Centers, das sich als Zeichen einer Niederlage tief ins kollektive Gedächtnis der westlichen Welt eingebrannt hat, haben die Amerikaner zunächst nichts entgegenzusetzen. Dennoch erringen die Amerikaner nach dem 11. September 2001 einen kurzen bildsymbolischen Sieg als Kompensation dafür, dass sie Bin Laden niemals als Toten oder Gefangenen präsentieren konnten. Zwei Schlüsselbilder sind hier zu nennen: Das Einreißen der Saddam-Statue in Bagdad und die Präsentation des verwilderten Diktators in der Höhle.
  13. Ovid: SearchSolver - die intelligente Suchmaschine (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4659) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4659,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4659, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4659)
      0.25 = coord(1/4)
    
    Content
    "Eine intelligente Suchmaschine, die weiß, was ihr Nutzer sucht - mit »SearchSolver« von Ovid Technologies wird dieser Wunsch Wirklichkeit. Über die neue Metasuche recherchieren Akademiker und Mediziner nicht nur einfacher und schneller, sondern vor allem treffsicher. Kombiniert mit der Ovid LinkSolver Technologie, führt SearchSolver sogar direkt von einem Suchergebnis zum dazugehörigen Volltext. Die Zahl der Quellen, die onlineverfügbar sind, steigt nahezu ins Unendliche. Neben Internetportalen gibt es mittlerweile auch zahlreiche Zeitschriften, Bücher und Datenbanken elektronisch. Mit SearchSolver durchsuchen Recherchierende alle Ressourcen parallel mit einem Klick. Der Vorteil: Sie können ihre Anfrage vorab nach individuellen Kriterien einschränken. So erhalten sie nur die Informationen, die ihrem Suchprofil entsprechen. Diese lassen sich nach Relevanz sortiert anzeigen. Zudem können die Ergebnisse direkt weiterverarbeitet werden, da sie problemlos in andere, nicht webbasierte Dokumente exportierbar sind. Mit SearchSolver greifen akademische und medizinische Einrichtungen auf eine Suchmaschine zu, die im ersten Schritt eine Übersicht über alle Rechercheergebnisse liefert. Diese zeigt häufig zusätzlich zu Text oder Link das Logo der Quelle an, so dass sie auf einen Blick erkennbar ist. Im zweiten Schritt wird der Nutzer mit einem Mausklick auf die Originalquelle geführt - beispielsweise den Artikel einer Onlinezeitschrift oder die Fachdatenbank. Integriert in SearchSolver, bringt die Verlinkungs-Lösung den Leser direkt von einer Quelle zur nächsten, ohne dass er eine neue Recherche starten muss. Neben dem Suchprofil kann auch die Oberfläche von SearchSolver personalisiert werden. So lässt sich beispielsweise das eigene Logo integrieren. Auch das Anlegen von eigenen Formatvorlagen ist kein Problem. Je nach individuellen Anforderungen bestimmen die Einrichtungen, welche Quellen die Basis für SearchSolver bilden. Dabei können sie aus mehr als 1.300 Voreinstellungen auswählen. Damitfälltdielmplementierung deutlich kürzer aus. Das gesamte Hosting wie Verwaltung und Pflege übernimmt Ovid. SearchSolver ist in drei verschiedenen Varianten erhältlich. (www.ovid.com)"
  14. Google digitalisiert 15 Millionen Bücher (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 4775) [ClassicSimilarity], result of:
          0.030999837 = score(doc=4775,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 4775, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4775)
      0.25 = coord(1/4)
    
    Content
    "Die Betreiber der populärsten Internet-Suchmaschine Google planen nach amerikanischen Presseberichten die Digitalisierung von mehr als 15 Millionen Büchern. Das Unternehmen habe eine Vereinbarung mit renommierten Universitätsbibliotheken geschlossen und wollte das Projekt noch am Dienstag offiziell vorstellen, berichtete die "NewYorkTimes". Beteiligt seien unter anderem die Universitäten von Harvard, Stanford und Oxford. Nach dem Bericht der Zeitung könnte das Projekt mehr als zehn Jahre Arbeit in Anspruch nehmen. Die Digitalisierung koste rund zehn Dollar pro Buch. Insgesamt umfasse die Vereinbarung 15 Millionen Bücher, darunter die ganzen Bestände der Universitäten von Stanford und Michigan sowie ausgewählte Werke aus Harvard und der Bodleian-Bibliothek in Oxford sowie der öffentlichen Bücherei von New York. Werke aus den Sammlungen dieser Hochschulen sollten digitalisiert werden, sodass Internet-Surfer via Google nach ihnen suchen könnten, kündigte Google-Mitbegründer Larry Page an. Über das Programm solle auch nach Titeln gesucht werden können, die nicht zu kaufen seien, sondern allein in Bibliotheksregalen stünden. Das neue Projekt geht über ein bereits vorhandenes Google-Angebot hinaus, mit dem Internet-Nutzer Inhalte aus Neuveröffentlichungen suchen können. Page sagte schon vor der Gründung von Google habe er davon geträumt, die Fülle von Informationen aus Bibliotheken ins Netz zu stellen. Nur Bücher, die nicht mehr durch Copyright geschützt sind, sollen in voller Länge in die virtuelle Bibliothek aufgenommen werden. Aus jüngeren Werken sollen nur Auszüge veröffentlicht werden. Google will die Bücher mit seinen regulären Web-Services zugänglich machen. Die beteiligten Bibliotheken erhalten im Gegenzug eine digitale Datenbasis, die ihre eigenen Werke enthält und die die Universitäten auf ihren eigenen Websites zur Verfügung stellen. Näheres siehe http//www print google.com/
  15. Bos, F.: Evaluation von Methoden und Methodologien zur Entwicklung von Ontologien und Entwurf einer Ontologie für den Lehrveranstaltungsbereich (2005) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 19) [ClassicSimilarity], result of:
          0.030999837 = score(doc=19,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 19, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=19)
      0.25 = coord(1/4)
    
    Abstract
    Ontologien sind explizite formale Beschreibungen von Konzepten und Relationen. Sie geben zusätzliche Beschreibungsinformationen auf einer Metaebene zu Daten eines bestimmten Sachbereichs. Solche Semantiken werden in der Informationstechnologie zunehmend nachgefragt. In dieser Diplomarbeit werden in einem analytisch-theoretischen Teil unterschiedliche Vorgehensweisen zur Entwicklung von Ontologien vorgestellt und evaluiert. Die Evaluation stellt dem Ontologieentwickler Entscheidungsgrundlagen bei der Auswahl einer geeigneten Vorgehensweise zur Verfügung. In einem praktischen Teil wird die Vorgehensweise METHONTOLOGY - in Verbindung mit der Ontologiesprache OWL und dem Entwicklungswerkzeug Protégé - angewendet, um eine Ontologie für den universitären Lehrveranstaltungsbereich zu entwickeln. Diese Ontologie soll später innerhalb des Projektes SIRUP (Semantic Integration Reflecting User-specific semantic Perspectives) eingesetzt werden. Im Rahmen dieser Diplomarbeit werden zwei Ziele angestrebt. Es wird eine Evaluation von ausgewählten Ontologieentwicklungsansätzen durchgeführt, die in der Fachliteratur beschrieben werden. Diese Evaluation dient dem Entwickler als Basis für die Auswahl der geeigneten Vorgehensweise anhand von gegebenen Anforderungen. Zudem ist diese Evaluation eine Hilfestellung für zukünftige Anwender von Ontologien. Ein weiteres Ziel ist die Erstellung einer Ontologie für den Lehrveranstaltungsbereich einer Universität. Diese Ontologie wird zu einem späteren Zeitpunkt innerhalb des Projektes SIRUP eingesetzt werden. Die Auswahl der Vorgehensweise zur Entwicklung dieser spezifischen Ontologie soll unter Einbezug der Erkenntnisse aus der Evaluation erfolgen. Das Auswahlverfahren erlaubt zugleich die Praxistauglichkeit der erarbeiteten Evaluation zu prüfen.
  16. Kaiser, S.: Retrokonversion des Quartkatalogs abgeschlossen (2006) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 37) [ClassicSimilarity], result of:
          0.030999837 = score(doc=37,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 37, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=37)
      0.25 = coord(1/4)
    
    Content
    "Angesichts des Alters (18401952), der Menge (2,3 Millionen Katalogblätter im Quartformat, daher der Name Quartkatalog) und der Schwierigkeit der Vorlagen (über neunzig Prozent handschriftlich) bot es sich für die BSB an, längere Zeit zu prüfen, welches Retrokonversionsverfahren für das geplante Vorhaben am besten geeignet ist unter besonderer Berücksichtigung von Projektdauer, Kosten und unverzichtbarer hoher Qualität der bei der Retrokonversion erstellten Titeldaten. Sorgfältige Vorarbeiten hatten ein Verhältnis von 65 Prozent Zutragungen zu vorhandenen BVB Titeldatensätzen und 35 Prozent Neuaufnahmen prognostiziert. Als entscheidend für den Konversionserfolg wurde daher eine sehr hohe Genauigkeit bei der Entscheidung Neuaufnahme/ Zutragung angesehen, eine hohe Nachvollziehbarkeit der Rechercheentscheidungen sowie die Vermeidung von Dubletten in der Verbunddatenbank. Vor diesem Hintergrund fiel die Entscheidung zu einem Retrokonversionsverfahren unter Ausspeicherung der vorhandenen BVB-Daten, darunter die von der Deutschen Bücherei Leipzig und der Staatsbibliothek Preußischer Kulturbesitz übernommenen Altdaten, mit besonderem Fokus auf die Qualitätssicherung durch den auszuwählenden Dienstleister. In einer europaweiten Ausschreibung wurde im Oktober 2002 der Anbieter Satz-Rechen-Zentrum (SRZ Berlin) ausgewählt, der in den Jahren 1996-1997 bereits die Retrokonversion des IFK der BSB (2,2 Millionen Karten im internationalen Format) erfolgreich bewältigt hatte. Von Dezember 2002 bis Juli 2003 wurden die Katalogschränke sukzessive nach Berlin transportiert, um an zwei für diesen Zweck speziell gebauten Durchzugsscannern 2,3 Millionen Quartblätter mit Vorder- und Rückseite in 256 Graustufen zu digitalisieren. Die insgesamt 4,6 Millionen Bilder (images) umfassen ein Datenvolumen von 221 GByte."
  17. huh: Student beleidigte Personal : Trotzdem: Amtsgericht hob Hausverbot für Stadtbibliothek auf (2006) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 253) [ClassicSimilarity], result of:
          0.030999837 = score(doc=253,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 253, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=253)
      0.25 = coord(1/4)
    
    Content
    "Als "unverhältnismäßig" aufgehoben hat eine Amtsrichterin ein von der Stadtbibliothek ausgesprochenes unbefristetes Hausgebot gegen einen Musik- und Philosophiestudenten. Damit entsprach die Richterin einer Klage des Studenten. (Az: 140 C 206/05) Das Hausverbot hatte die Kommune unter anderem mit dessen aggressivem, rücksichtlosen und dominanten Verhalten in Bücherei-Filialen begründet. Der aus der Ukraine stammende Student habe sich geweigert, sich am Ausleih-Schalter in die Warteschlange einzureihen und die auf zwei Stunden beschränkte Internet-Nutzungszeit pro Woche einzuhalten. Er habe sogar andere Nutzer aufgefordert, sich vom Rechner zu entfernen, damit er seine E-Mails abrufen könne, hieß es bei der Stadt. Auch Hinweise des Personals auf die Verletzung der Benutzungsordnung seien von ihm völlig ignoriert worden. Stattdessen habe er eine Angestellte als "total verkalkt" und "alte Schachtel" beleidigt. Zudem habe er den Leiter der Stadtbibliothek telefonisch als "Faschisten beschimpft und "fremdenfeindlich" genannt. Auch das im März 2003 gegen ihn ausgesprochene unbefristete Hausverbot sei von ihm ignoriert worden, so dass er im Juni 2004 vom Sicherheitsdienst aus der Zentralbibliothek am Neumarkt habe verwiesen werden müssen. Daraufhin klagte der Student vor dem Amtsgericht erfolgreich für eine Aufhebung das Hausverbots. In der Urteilsbegründung heißt es, grundsätzlich stehe jedermann die Nutzung der Stadtbibliothek zu, weil sie unter anderem der "Daseinsvorsorge" diene. Ein Hausverbot könne nur unter ganz bestimmten Voraussetzungen ausgesprochen werden. Dabei sei besonders der Grundsatz der Verhältnismäßigkeit zu wahren, so die Richterin."
  18. Ehrig, M.; Studer, R.: Wissensvernetzung durch Ontologien (2006) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 901) [ClassicSimilarity], result of:
          0.030999837 = score(doc=901,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 901, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=901)
      0.25 = coord(1/4)
    
    Abstract
    In der Informatik sind Ontologien formale Modelle eines Anwendungsbereiches, die die Kommunikation zwischen menschlichen und/oder maschinellen Akteuren unterstützen und damit den Austausch und das Teilen von Wissen in Unternehmen erleichtern. Ontologien zur strukturierten Darstellung von Wissen zu nutzen hat deshalb in den letzten Jahren zunehmende Verbreitung gefunden. Schon heute existieren weltweit tausende Ontologien. Um Interoperabilität zwischen darauf aufbauenden Softwareagenten oder Webservices zu ermöglichen, ist die semantische Integration der Ontologien eine zwingendnotwendige Vorraussetzung. Wie man sieh leicht verdeutlichen kann, ist die rein manuelle Erstellung der Abbildungen ab einer bestimmten Größe. Komplexität und Veränderungsrate der Ontologien nicht mehr ohne weiteres möglich. Automatische oder semiautomatische Technologien müssen den Nutzer darin unterstützen. Das Integrationsproblem beschäftigt Forschung und Industrie schon seit vielen Jahren z. B. im Bereich der Datenbankintegration. Neu ist jedoch die Möglichkeit komplexe semantische Informationen. wie sie in Ontologien vorhanden sind, einzubeziehen. Zur Ontologieintegration wird in diesem Kapitel ein sechsstufiger genereller Prozess basierend auf den semantischen Strukturen eingeführt. Erweiterungen beschäftigen sich mit der Effizienz oder der optimalen Nutzereinbindung in diesen Prozess. Außerdem werden zwei Anwendungen vorgestellt, in denen dieser Prozess erfolgreich umgesetzt wurde. In einem abschließenden Fazit werden neue aktuelle Trends angesprochen. Da die Ansätze prinzipiell auf jedes Schema übertragbar sind, das eine semantische Basis enthält, geht der Einsatzbereich dieser Forschung weit über reine Ontologieanwendungen hinaus.
  19. Weichselgartner, E.: ZPID bindet Thesaurus in Retrievaloberfläche ein (2006) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 962) [ClassicSimilarity], result of:
          0.030999837 = score(doc=962,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 962, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=962)
      0.25 = coord(1/4)
    
    Abstract
    Seit 3. Juli 2006 stellt das ZPID eine verbesserte Suchoberfläche für die Recherche in der bibliographischen Psychologie-Datenbank PSYNDEX zur Verfügung. Hauptmerkmal der neuen Version 1.1 des 'ZPID-Retrieval für PSYNDEX' ist die Einbindung von 'PSYNDEX Terms', dem kontrollierten Wortschatz der psychologischen Fachsprache. PSYNDEX Terms basiert auf dem 'Thesaurus of Psychological Index Terms' der American Psychological Association (APA) und enthält im Moment über 5.400 Deskriptoren. Zu jedem Deskriptor werden ggf. Oberbegriffe, Unterbegriffe und verwandte Begriffe angezeigt. Wer die Suchoberfläche nutzt, kann entweder im Thesaurus blättern oder gezielt nach Thesaurusbegriffen suchen. Kommt der eigene frei gewählte Suchbegriff nicht im Thesaurus vor, macht das System selbsttätig Vorschläge für passende Thesaurusbegriffe. DerThesaurus ist komplett zweisprachig (deutsch/englisch) implementiert, sodass er auch als Übersetzungshilfe dient. Weitere Verbesserungen der Suchoberfläche betreffen die Darstellbarkeit in unterschiedlichen Web-Browsern mit dem Ziel der Barrierefreiheit, die Erweiterung der OnlineHilfe mit Beispielen für erfolgreiche Suchstrategien, die Möglichkeit, zu speziellen Themen vertiefte Informationen abzurufen (den Anfang machen psychologische Behandlungsprogramme) und die Bereitstellung eines Export-Filters für EndNote. Zielgruppe des ZPID-Retrieval sind Einzelpersonen, die keinen institutionellen PSYNDEX-Zugang, z.B. am Campus einer Universität, nutzen können. Sie können das kostenpflichtige Retrieval direkt online erwerben und werden binnen weniger Minuten freigeschaltet. Kunden mit existierendem Vertrag kommen automatisch in den Genuss der verbesserten Suchoberfläche.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.5, S.244
  20. Danowski, P.; Heller, L.: Bibliothek 2.0 : Die Zukunft der Bibliothek? (2006) 0.01
    0.0077499594 = product of:
      0.030999837 = sum of:
        0.030999837 = weight(_text_:und in 193) [ClassicSimilarity], result of:
          0.030999837 = score(doc=193,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.27396923 = fieldWeight in 193, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=193)
      0.25 = coord(1/4)
    
    Abstract
    Der Begriff Bibliothek 2.0 (bzw. Library 2.0) lehnt sich an die Begrifflichkeit des Web 2.0 an. Beide Begriffe sind für die bibliothekarische Welt relativ neu und werden bisher hauptsächlich im angloamerikanischen Raum diskutiert. Einige Bereiche des "neuen" Webs werden auch in Deutschland von Bibliothekaren diskutiert, so beispielsweise Weblogs und die Wikipedia. Die Betrachtung sollte hier jedoch nicht enden, sondern vielmehr als Startpunkt dienen. Über den Begriff als solchen kann man sicherlich streiten, jedoch hat er sich als tauglich erwiesen, um bestimmte Veränderungen zu beschreiben. So schreibt Michael Stephens, der den Begriff entscheidend mitprägte, im ALA TechSource Weblog: "I am so pleased with the discussion - and no matter what name you use, I love that the innovations and plans just keep rolling on."
    Content
    Darin auch Aussagen zu Katalogen der Zukunft: "OPAC: Vom hermetischen Katalogkasten zur Entdecker-Bibliothek... Das Entdecken neuer Informationen sollte durch ein breiteres Spektrum von Zugängen unterstützt werden als allein durch die klassische OPAC-Suche. Jeder einzelne Buchtitel und jede einzelne Ressource sollte durch eine permanente, möglichst aussagekräftig URL angesprochen werden können. Das ist nicht nur die Voraussetzung dafür, dass die Informationen automatisch durch Websuchmaschinen indexiert werden können, und somit über den Hauptzugang zu Informationen heute auffindbar sind; vielmehr werden auch weitere neuartige Webanwendungen darauf angewiesen sein. Noch einen Schritt weiter geht die Einbindung von RSS in den Kölner Gesamtkatalog KUG. Die RSS-Links führen nicht direkt auf eine HTML-Seite, sondern auf strukturierte, maschinenlesbare Informationen. Wissenschaftler können so ihr eigenes Interessenprofil durch eine Schlagwortkombination im Katalog definieren und sich in ihrem Feedreader automatisch alle Neuerwerbungen zu diesem Thema anzeigen lassen." (S.1262-1263)

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications