Search (4749 results, page 208 of 238)

  • × year_i:[2000 TO 2010}
  1. Bouhs, D.: Volltext im Netz : Die Bücherwelt wird digital (2007) 0.01
    0.0077496064 = product of:
      0.030998426 = sum of:
        0.030998426 = weight(_text_:und in 2310) [ClassicSimilarity], result of:
          0.030998426 = score(doc=2310,freq=22.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24381724 = fieldWeight in 2310, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2310)
      0.25 = coord(1/4)
    
    Content
    "Die Suche nach Informationen im Internet hält Google bereits fest in seiner Hand. Jetzt aber steht das kalifornische Unternehmen kurz davor, auch den Zugang zu Literatur entscheidend mitzubestimmen. Denn künftig will Google bei Suchabfragen neben Internetseiten auch Buchtitel aufführen. Nutzer können dann per Mausklick in das jeweilige Buch springen und in ihm ohne technische Hürden wie in Internetseiten stöbern. Eine solche Volltextsuche, die bereits in ei ner Vorversion abseits der regulären Suchmaske angesteuert werden kann, dürfte vor allem den Zugang zu Fachliteratur komfortabler machen. "Der größte Teil des Welt-Wissens befindet sich heute immer noch außerhalb des Internets", sagt Jens Redmer, Europadirektor von Google Book Search. Sein Projekt soll die Lücke zwischen Online- und Offline-Wissen schließen. Google würde damit noch mächtiger werden. In dieser Woche präsentierte Redmer in Mainz beeindruckende Zahlen: Weltweit mehr als 10000 Verlage sollen seinem Konzern inzwischen ihre aktuellen Publikationen liefern. Google digitalisiert die meist gedruckt gelieferten Werke, legt sie auf die Server undverknüpft sie mit einer Volltextsuche. Anders als beim zweiten Teil des Programms "Book Search" werden nicht historische Bestände von Partnerbibliotheken ins Internet gestellt, sondern aktuell über den klassischen Handel ver trieben Titel. Kritiker, etwa beim Börsenverein des Deutschen Buchhandels, bemängeln, dass die Verlage damit die Kontrolle über ihre Inhalte aufgeben. Redmer entgegnet. "Niemand kann das gesamte Buch einsehen. Und auch mit mehreren Suchabfragen können ein-zelne Nutzer maximal 20 Prozent des Inhalts einsehen." In der Tat können in aktuellen Publikationen Inhaltsverzeichnisse und teils mehrere Kapitel durchforstet werden, das komplette Buch ist jedoch nach wie vor nur in gedruckter Form zu haben.
    Google und seine Partnerverlage gehen eine umfangreiche Kooperation ein: Während der weltweit größte Suchmaschinenbetreiber mit den digitalisierten Büchern seine Trefferlisten gegenüber der Konkurrenz deutlich aufwerten kann, verlinkt er die Treffer im Gegenzug mit den Onlineshops der Verlage und darüber hinaus mit virtuellen Buchläden wie Amazon und Weltbild. Verknüpft sind die einzelnen Suchergebnisse aber auch mit einem weiteren Produkt des Unternehmens, mit "Google Maps". Bei Eingabe eines Ortes stellt die Suchmaschine auf einer Karte Buchhandlungen dar - inklusive Adresse, Telefonnummer und häufig Öffnungszeiten. Denn auch wenn immer mehr Bücher im Internet vertrieben werden, weiß Redmer: "80 Prozent der Produkte werden noch immer im lokalen Handel gekauft." Langfristig aber glaubt der Google-Manager an große Veränderungen in der Verlagsbranche: "Bücher sind immer verfügbar, auch wenn sie nur 50 Mal im Jahr verkauft werden und es sich deshalb für Verlage nicht mehr lohnt, sie auf Lager zu halten sagt Redmer. Dafür wolle Google den Verlagen schon bald die Möglichkeit anbieten, über das Internet elektronische Versionen von Büchern zu verkaufen - der Druck wäre gar nicht mehr zwingend nötig. Die englische Times berichtet gar von dem gemeinsamen Plan Googles mit amerikanischen Verlegern, Bücher auf mobilen Lesegeräten wie Mobiltelefonen oder Kleinstcomputern darzustellen. In Mainz sagte Redmer: "In Japan lesen Pendler ganze Romane auf ihren Handys - das ist verrückt, aber sie tun es." Derzeit sieht es so aus, als überließen die anderen Suchmaschinen Google das Feld bei urheberrechtlich geschützten Publikationen. Yahoo wollte sich zu entsprechenden Plänen nicht äußern, und in der US-Zentrale von Microsoft ("Live Search", ehemals "MSN Suche") ist lediglich davon die Rede, man wolle sich zunächst auf urheberrechtlich befreites Material konzentrieren. Auch der Börsenverein des Deutschen Buchhandels will noch Anfang Februar mit einer eigenen Datenbank an den Start gehen - wenn auch vorerst ebenfalls nur mit einer Testversion. "Es geht darum, möglichst schnell möglichst viele Titel einzuspeisen sagt Hauptgeschäftsführer Alexander Skipis. "Im Gegensatz zu dem Modell von Google können die Verleger bei uns selbst entscheiden, wie viel von jedem einzelnen Titel unentgeltlich oder auch gegen Bezahlung eingesehen werden kann." Von Google will sich der Verband nicht völlig distanzieren; Skipis kündigt eine: Kooperation an. Dabei soll der US-Konzern bei seinen Abfragen Zugriff auf das deutsche System erhalten. "Bei einem Klick auf einen Verweis sollen die Nutzer dann aber auf unseren Seiten landen, sagt Skipis und ergänzt: "Das ist zwar noch nicht ganz in trockenen Tüchern, es kann sich aber nur noch um Wochen handeln." "
  2. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.01
    0.0077496064 = product of:
      0.030998426 = sum of:
        0.030998426 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.030998426 = score(doc=55,freq=22.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.25 = coord(1/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse [email protected] geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  3. Satija, M.P.: ¬The theory and practice of the Dewey Decimal Classification system (2007) 0.01
    0.0077496064 = product of:
      0.030998426 = sum of:
        0.030998426 = weight(_text_:und in 631) [ClassicSimilarity], result of:
          0.030998426 = score(doc=631,freq=22.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24381724 = fieldWeight in 631, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=631)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 61(2008) H.1, S.99-103 (M. Sandner): "In der Schriftenreihe "Information Professional Series" möchte der Verlag vielbeschäftigten Angehörigen der Bibliothekszunft leicht lesbares, sehr praxisorientiertes, durch ausgewiesene Autoritäten ihres Faches abgesichertes und aktuelles State-of-the-art-Wissen anbieten. - Der Verfasser des vorliegenden Bandes gilt als solch ein arrivierter Experte in Sachen Wissensorganisation, Klassifikation im Allgemeinen und DDC, Kolonklassifikation und UDK im Besonderen. Er ist Vorstand des Departments für Bibliotheks- und Informationswissenschaft an einer indischen Universität. Seinem Text stellt er einige tiefe Verbeugungen voran: die erste gilt dem 1991 verstorbenen Herausgeber der 20. Ausgabe der DDC, den er als geistigen Koautor mit herein nimmt, die zweite gilt Melvil Dewey und dessen phänomenaler Erfindung (The sun never sets on its ever-spreading empire.), die dritte, den ganzen Text begleitende, gilt - unausgesprochen - dem Konzept der Facettierung von Ranganathan. Satijas erklärte Absicht ist es, Anfängern die DDC22 verständlich zu machen und Anwendern zu nützlichen Einsichten zu verhelfen. Einerseits, so kündigt er im Vorwort an, werde er den philosophischen Hintergrund immer wieder beleuchten, andererseits stelle das Buch einen kompletten Kurs dar: anhand didaktisch ausgewählter Beispiele solle nämlich Schritt für Schritt jeder wichtige Bereich des Klassifikationssystems angesprochen und würden alle Methoden für dessen Anwendung erklärt werden. - Keine geringen Ansprüche, die sich Verlag und Verfasser selbst stellen! Das Äußere des Buches wirkt erfrischend und modern - gerne greift man zu dem einladend bunten Band, der laut Inhaltsverzeichnis klar strukturiert scheint. Nur: wo versteckt sich wohl der angekündigte DDC-Kursteil? ... Fazit: sollte dieses Buch, liebe Leserin, lieber Leser, Ihre erste Lektüre über die DDC sein, dann lesen Sie es nicht allein und vor allem, lesen Sie nicht allein dieses! Sollten Sie aber schon einige Erfahrung mit der Dewey haben, dann werden Sie gewiss mit Gewinn all das heraushören, was ein erfahrener Professor aus der Schule zu plaudern vermag, und das, was nur Satija aus seinem Blick auf die DDC Ihnen eröffnen kann."
  4. Throtha, K. von: Rede von Minister Klaus von Throtha anlässlich der Diplomierungsfeier an der HBI am 25. Februar 2000 : "Wir erleben eine kulturelle und technische Revolution" (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 5847) [ClassicSimilarity], result of:
          0.03084147 = score(doc=5847,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 5847, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5847)
      0.25 = coord(1/4)
    
    Content
    Ministerielle Erkenntnisse: "Wir stehen am Beginn einer Entwicklung, die deutlich über den Begriff 'Informationsgesellschaft' hinausgeht. Dies war eine zutreffende Bezeichnung für die technologische Seite des Aspekts. Wissensgesellschaft dagegen beschreibt die menschliche Dimension des Wandels. Erst durch den Menschen wird Information zu Wissen." "Charakteristisch für die Wissensgesellschaft ist das hohe Tempo der Wissensvermehrung. Alle fünf bis sieben Jahre verdoppelt sich das weltweit verfügbare Wissen. Die Hälfte bleibt nur drei bis vier Jahre aktuell und damit entsprechend wertvoll." "Das Wachstum des Wissens scheint deshalb unendlich. Wissen ist der Rohstoff, der sich durch sich selbst erneuert, die einzige Ressource, die sich bei intensivem Gebrauch nicht verbraucht, sondern vermehrt." "Nur strukturierte Informationen werden verwertbares Wissen."
  5. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 5885) [ClassicSimilarity], result of:
          0.03084147 = score(doc=5885,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 5885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5885)
      0.25 = coord(1/4)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  6. Hofer, K.C.; Zimmermann, H.: Godd Webrations 2.0 : eine Web Wirkungsanalyse (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 5975) [ClassicSimilarity], result of:
          0.03084147 = score(doc=5975,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 5975, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5975)
      0.25 = coord(1/4)
    
    Abstract
    Das Maß aller Dinge ist der Mensch. "Das 20. Jahrhundert stand im Zeichen der Technologie. Das 21. Jahrhundert wird im Zeichen der Menschen stehen, die mit Technologie umgehen müssen". Das gilt auch für das Web-Design. Wer als Anbieter auf den elektronischen Märkten bestehen will, sollte seinen Internetauftritt auf die Bedürfnisse des Kunden ausrichten, und das nicht nur hinsichtlich der dort feilgebotenen Naturalien, sondern auch in puncto Web-Site-Ergonomie, damit der Besucher konsumiert anstatt vorbeizuflanieren. Die Autoren vermeiden es, der Designergemeinde einen weiteren Styleguide unter die Nase zu reiben, sondern stellen Aspekte der Neurophysiologie, Wahrnehmungspsychologie und Gedächtnisforschung sowie Motivationstrategien - leicht verständlich aufbereitet - in den Vordergrund ihres Entwurfs der optimalen digitlaen Nische, damit der Homo sapiens nicht zu dem mutiert, was die Autoren eingangs des Buches so unbedarft konstatieren: einem 'Homo surfiens'
  7. Krickl, O.; Milchrahm, E.: Integrativer Ansatz zur Wissensbewertung (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 6486) [ClassicSimilarity], result of:
          0.03084147 = score(doc=6486,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 6486, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6486)
      0.25 = coord(1/4)
    
    Abstract
    Im Gegensatz zu den traditionellen Rechnungslegungssystemen gibt es im Rahmen des Wissensmanagements keine erprobten Messverfahren auf die man zur Messung und Bewertung organisationalen Wissens zurückgreifen kann. Wissen kann selten auf eine Messdimension zurückgeführt werden und häufig ist der Messaufwand sehr hoch, jedoch liegt im Bereich der Wissensbewertung ein bisher stark vernachlässigtes Potential. Das Ziel der vorliegenden Arbeit liegt in der kritischen Analyse eines Ansatzes zur Wissensbewertung. Im Zuge dieser Untersuchung wird die Methodik der Balanced Scorecard zur Eignung der Wissensbewertung hinterfragt, indem auch die betriebliche Praxis anhand eines konkreten Fallbeispieles untersucht wird. Abschließend wird ein mehrstufiges Indikatorenmodell zur Wissensbewertung vorgestellt
  8. Palme, K.: E-Commerce : verhindert Sprache Business-to-Business? (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 6564) [ClassicSimilarity], result of:
          0.03084147 = score(doc=6564,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 6564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6564)
      0.25 = coord(1/4)
    
    Abstract
    Wirtschaftliche Trends sind gekennzeichnet durch Worte wie Electronic Business, E-Commerce, E-Procurement, Supply Chain u.a. Immer mehr Unternehmen versuchen, das Internet für eigene Zwecke zu nutzen und eigene Positionen in elektronischen Märkten durch den Auftritt im Internet abzusichern. Die allgemeine Sprachverwirrung, von der unklaren Definition von E-Commerce bis hin zu elektronischen Märkten oder dem Begriff der Portale verwirrt manchen Nutzer mehr als es ihm nützt
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  9. MPG Presse: Sehen auf neuen Wegen (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 6572) [ClassicSimilarity], result of:
          0.03084147 = score(doc=6572,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 6572, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6572)
      0.25 = coord(1/4)
    
    Abstract
    In der Augennetzhaut läuft nicht alles parallel. Wissenschaftler des Max-Planck-Instituts für Hirnforschung in Frankfurt haben "verquere" Schaltungen zwischen Stäbchenrezeptoren und Zapfensehbahn entdeckt. In der Netzhaut der Augen sitzen zwei Sorten von Lichtsinneszellen: zum einen Zapfen, zuständig für Tageslicht und Farbensehen, zum anderen Stäbchen, die das Sehen in der lichtarmen Dämmerung übernehmen - wenn "alle Katzen grau" werden. Bisher galt, daß die Signale beider Rezeptortypen in nachgeschalteten Nervenzellen der Netzhaut seperat verarbeitet werden. Doch jetzt ist man am Max-Planck-Institut für Hirnforschung, Frankfurt/Main, auf "Brückenschaltungen" gestoßen, über die Signale von den Stäbchen in die Sehbahn der Zapfen laufen (PNAS USA 96, 14130-14135; 23. November 1999). Die Frage, ob diese Querverbindungen nur Überbleibsel der Evolution verkörpern oder gezielt das Dämmerungssehen optimieren, ist derzeit noch offen
  10. Messerschmidt, J.: ¬Der Verantwortungsbegriff und seine Relevanz in der wissenschaftlichen Forschung (2001) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 6949) [ClassicSimilarity], result of:
          0.03084147 = score(doc=6949,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 6949, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6949)
      0.25 = coord(1/4)
    
    Content
    Diskussion von Positionen von Max Weber, Hans Jonas, J. Robert Oppenheimer (im Zusammenhang mit dem Manhatten-Projekt) und Werner Heisenberg
  11. Hiller, H.; Füssel, S.: Wörterbuch des Buches : mit online Aktualisierung (2006) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 5) [ClassicSimilarity], result of:
          0.03084147 = score(doc=5,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 5, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5)
      0.25 = coord(1/4)
    
    Classification
    AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]
    RVK
    AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]
  12. Arnold, J.; Hühne, B.: Für eine bessere Streitkultur und mehr Toleranz : InetBib feiert das Zehnjährige / Spannende Vorträge und Diskussionen in Bonn (2005) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 155) [ClassicSimilarity], result of:
          0.03084147 = score(doc=155,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 155, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=155)
      0.25 = coord(1/4)
    
  13. Endres-Niggemeyer, B.: Empirical methods for ontology engineering in bone marrow transplantation (2000) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 657) [ClassicSimilarity], result of:
          0.03084147 = score(doc=657,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 657, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=657)
      0.25 = coord(1/4)
    
    Source
    Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
  14. cw: ¬Das Straßen-Netz (2002) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 728) [ClassicSimilarity], result of:
          0.03084147 = score(doc=728,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 728, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=728)
      0.25 = coord(1/4)
    
    Abstract
    Gott sei's gedankt - der Frühling ist da! Die roten Nasen beginnen sich schon langsam wieder zu einem gesünderen Weiß zu verfärben und selbst doe Sommersprossen schicken sich an, im Gesicht wieder aufzublühen. Die Sonne verleiht uns ja dermaßen viel Energie, dass wir es kaum mehr erwarten können, aus dem Käfig des Eigenheims auszubrechen, um die Welt auf ein Neues zu erkunden
    Content
    Test von Routenplanern: Ambesten abgeschnitten haben: Veturo und Map24
  15. Weiner, M.: ¬Die Agenten kommen (2002) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 734) [ClassicSimilarity], result of:
          0.03084147 = score(doc=734,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 734, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=734)
      0.25 = coord(1/4)
    
    Abstract
    Der klassische Agent arbeitet für andere, hat selbst jedoch einen großen Entscheidungsspielraum. software-Agenten, eine Entwicklung der Künstlichen Intelligenz-Forschung, sind ähnlich gestrickt: Sie bekommen nur ihr Ziel gesagt, den Weg dorthin suchen sie selbständig. In Informationsnetzwerken werden sie bereits routinemäßig eingesetzt, um im Internet nach Informationen zu suchen, in großen Unternehmen Telefongespräche zu vermitteln oder in Banken die Bonität unbekannter Kunden zu prüfen. Derzeit enwickeln weltweit über 40 Unternehmen kommerzielle Agentensoftware, das Marktvolumen lag nach Schätzung des Marktforschungszentrums Ovum im Jahr 2000 bei 4 Milliarden US-Dollar. In Zukunft werden Software-Agenten nach Ansicht der Experten auch die Maschinensteuerung revolutionieren: Die Programme verbessern die Flexibilität von Service- und Industrierobotern und machen aus den bisher recht unflexiblen Blech-Gesellen "technische Agenten"
  16. Wagner-Döbler, R.: ¬Die Nutzung von Zitationsindizes durch deutsche Soziologen : Ergebnisse einer Umfrage (2001) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 831) [ClassicSimilarity], result of:
          0.03084147 = score(doc=831,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 831, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=831)
      0.25 = coord(1/4)
    
    Abstract
    Über das Ausmaß der Nutzung der Zitationsindizes des Institute for Scientific Information ist wenig bekannt; dies gilt insbesondere auch für den Social Science Citation Index (SSCI). Eine im Sommer 1999 durchgeführte Untersuchung unter deutschen Soziologen bestätigte bekannte Schwachpunkte des SSCI in Bezug auf Sprachraum und Literaturformen. Rund die Hälfte der antwortenden Soziologen gehörte zu den Nutzern, von denen wiederum die Hälfte den SSCI nur selten in Anspruch nahmen. etwa die Hälfte der Antwortenden hält die Auswertung von Zitationsindizes für eine sinnvolle informationelle Ergänzung der Evaluation sozialwissenschaftlicher Forschungsleistungen. Als weiteres Umfragergebnis zeigte sich, dass das Phanomen unsubstanzieller Koautorenschaft auch in der Soziologie weit verbreitet ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.401-405
  17. Schult, T.J.: Britannica 2002 (2001) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 895) [ClassicSimilarity], result of:
          0.03084147 = score(doc=895,freq=4.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 895, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=895)
      0.25 = coord(1/4)
    
    Content
    "Als der Verlag der legendären englischsprachigen Monumentalenzyklopädie 1998 seinen gesamten Buchvertrieb einstellte, konnte man die Encyclopaedia Britannica nur mehr in elektronischer Form kaufen - bis zu diesem Herbst. Da erschien überraschenderweise eine neue Printausgabe für rund 2000 US-$. Günstiger ist es auf alle Fälle, die auf einer CD-ROM versammelten 55 Millionen Wörter der Britannica und des begleitenden einsprachigen Merriam-Webster-Wörterbuches auf die Festplatte zu kopieren. Dort lassen sie sich auf Wunsch sogar komplett installieren. Zum Vergleich: Die eloquenteste deutschsprachige Enzyklopädie, Microsofts Encarta Professional, kommt auf vergleichsweise bescheidene 16,5 Millionen Wörter. Die hat sie aber besser organisiert, denn in der Britannica sind die Informationen zu einem Thema oft über verschiedene Artikel verstreut, weil neue Entwicklungen schon seit längerem in eigenen Jahrbuchartikeln beschrieben und nicht in den Artikelbestand integriert sind."
  18. Seidenfaden, U.: Schürfen in Datenbergen : Data-Mining soll möglichst viel Information zu Tage fördern (2001) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 923) [ClassicSimilarity], result of:
          0.03084147 = score(doc=923,freq=16.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 923, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=923)
      0.25 = coord(1/4)
    
    Content
    "Fast alles wird heute per Computer erfasst. Kaum einer überblickt noch die enormen Datenmengen, die sich in Unternehmen, Universitäten und Verwaltung ansammeln. Allein in den öffentlich zugänglichen Datenbanken der Genforscher fallen pro Woche rund 4,5 Gigabyte an neuer Information an. "Vom potentiellen Wissen in den Datenbanken wird bislang aber oft nur ein Teil genutzt", meint Stefan Wrobel vom Lehrstuhl für Wissensentdeckung und Maschinelles Lernen der Otto-von-Guericke-Universität in Magdeburg. Sein Doktorand Mark-Andre Krogel hat soeben mit einem neuen Verfahren zur Datenbankrecherche in San Francisco einen inoffiziellen Weltmeister-Titel in der Disziplin "Data-Mining" gewonnen. Dieser Daten-Bergbau arbeitet im Unterschied zur einfachen Datenbankabfrage, die sich einfacher statistischer Methoden bedient, zusätzlich mit künstlicher Intelligenz und Visualisierungsverfahren, um Querverbindungen zu finden. "Das erleichtert die Suche nach verborgenen Zusammenhängen im Datenmaterial ganz erheblich", so Wrobel. Die Wirtschaft setzt Data-Mining bereits ein, um das Kundenverhalten zu untersuchen und vorherzusagen. "Stellen sie sich ein Unternehmen mit einer breiten Produktpalette und einem großen Kundenstamm vor", erklärt Wrobel. "Es kann seinen Erfolg maximieren, wenn es Marketing-Post zielgerichtet an seine Kunden verschickt. Wer etwa gerade einen PC gekauft hat, ist womöglich auch an einem Drucker oder Scanner interessiert." In einigen Jahren könnte ein Analysemodul den Manager eines Unternehmens selbständig informieren, wenn ihm etwas Ungewöhnliches aufgefallen ist. Das muss nicht immer positiv für den Kunden sein. Data-Mining ließe sich auch verwenden, um die Lebensdauer von Geschäftsbeziehungen zu prognostizieren. Für Kunden mit geringen Kaufinteressen würden Reklamationen dann längere Bearbeitungszeiten nach sich ziehen. Im konkreten Projekt von Mark-Andre Krogel ging es um die Vorhersage von Protein-Funktionen. Proteine sind Eiweißmoleküle, die fast alle Stoffwechselvorgänge im menschlichen Körper steuern. Sie sind daher die primären Ziele von Wirkstoffen zur Behandlung von Erkrankungen. Das erklärt das große Interesse der Pharmaindustrie. Experimentelle Untersuchungen, die Aufschluss über die Aufgaben der über 100 000 Eiweißmoleküle im menschlichen Körper geben können, sind mit einem hohen Zeitaufwand verbunden. Die Forscher möchten deshalb die Zeit verkürzen, indem sie das vorhandene Datenmaterial mit Hilfe von Data-Mining auswerten. Aus der im Humangenomprojekt bereits entschlüsselten Abfolge der Erbgut-Bausteine lässt sich per Datenbankanalyse die Aneinanderreihung bestimmter Aminosäuren zu einem Protein vorhersagen. Andere Datenbanken wiederum enthalten Informationen, welche Struktur ein Protein mit einer bestimmten vorgegebenen Funktion haben könnte. Aus bereits bekannten Strukturelementen versuchen die Genforscher dann, auf die mögliche Funktion eines bislang noch unbekannten Eiweißmoleküls zu schließen.- Fakten Verschmelzen - Bei diesem theoretischen Ansatz kommt es darauf an, die in Datenbanken enthaltenen Informationen so zu verknüpfen, dass die Ergebnisse mit hoher Wahrscheinlichkeit mit der Realität übereinstimmen. "Im Rahmen des Wettbewerbs erhielten wir Tabellen als Vorgabe, in denen Gene und Chromosomen nach bestimmten Gesichtspunkten klassifiziert waren", erläutert Krogel. Von einigen Genen war bekannt, welche Proteine sie produzieren und welche Aufgabe diese Eiweißmoleküle besitzen. Diese Beispiele dienten dem von Krogel entwickelten Programm dann als Hilfe, für andere Gene vorherzusagen, welche Funktionen die von ihnen erzeugten Proteine haben. "Die Genauigkeit der Vorhersage lag bei den gestellten Aufgaben bei über 90 Prozent", stellt Krogel fest. Allerdings könne man in der Praxis nicht davon ausgehen, dass alle Informationen aus verschiedenen Datenbanken in einem einheitlichen Format vorliegen. Es gebe verschiedene Abfragesprachen der Datenbanken, und die Bezeichnungen von Eiweißmolekülen mit gleicher Aufgabe seien oftmals uneinheitlich. Die Magdeburger Informatiker arbeiten deshalb in der DFG-Forschergruppe "Informationsfusion" an Methoden, um die verschiedenen Datenquellen besser zu erschließen."
  19. Frey, S.: Vom Wort zum Bild - Von der Vernunft zum Instinkt? (2002) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 1257) [ClassicSimilarity], result of:
          0.03084147 = score(doc=1257,freq=16.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 1257, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1257)
      0.25 = coord(1/4)
    
    Content
    "Die Medien können erstaunliche Dinge bewirken. Sie können Politiker zu Fall bringen, Kriege gewinnen, Firmen große Probleme schaffen. Aber wie gelangten sie eigentlich in diese Machtposition? Was ist der Mechanismus, der es ihnen erlaubte, sich in einer Weise zu entwickeln, dass heutzutage nicht zu Unrecht von ihnen als von einer "vierten Gewalt" im Staate gesprochen wird? Schließlich haben die Medien ja keinerlei formales Recht, Politiker in Amt und Würden zu heben oder sie zu feuern. Im Falle von Kriegen ist es ihnen nicht erlaubt, an der strategischen Planung oder am Kampfgeschehen selbst teilzunehmen. Und wenn sie Firmen in große Bedrängnis bringen, so nicht etwa auf dem üblichen Wege eines regulären Wettbewerbs. Die Macht der Medien ist von ganz anderer Art. Sie beruht gänzlich auf kommunikativem Geschick, d. h. auf der Fähigkeit, Menschen dazu zu bringen, die von den Medien verbreitete Information zu beachten, sie zu verstehen und ihr Glauben zu schenken. - Knecht des Gehirns - Von der Macht der Medien zur Manipulation der öffentlichen Meinung kann daher auch nur insoweit gesprochen werden, als es ihnen gelingt, die Aufmerksamkeit der Menschen auf sich zu lenken und ihr Publikum davon zu überzeugen, dass die ihm übermittelte Information zuverlässig ist. Aber wie schaffen sie das? Offenkundig nicht einfach durch die bloße Verbreitung von Information. Denn in einer modernen demokratischen Gesellschaft, die dem Bürger freien, unzensierten Zugang zu einer unlimitierten Anzahl von Informationsquellen gewährt, stehen die Medien selbst in einer Konkurrenzsituation, die alle Merkmale eines darwinistischen Überlebenskampfes aufweist. Und diesen können sie - falls Darwins Überlegungen korrekt sind - überhaupt nur dadurch gewinnen, dass sie sich ihren Umweltbedingungen optimal anpassen. Diese wiederum sind im Falle der Medien nun aber in erster Linie definiert durch die Funktionsweise jenes wundersamen Informationsverarbeitungsapparats, den wir das menschliche Gehirn nennen. Wenn es also darum gehen soll, herauszufinden, wie es den Medien gelingen konnte, sich den hehren Status einer vierten Gewalt anzueignen - einer Gewalt, die in Montesquieus Modell der drei Staatsgewalten noch gar nicht mal vorgesehen war -, müssen wir klären, wie der menschliche Wahrnehmungsapparat mit den Informationen umgeht, die ihm die Medien über die Sinnesorgane zuführen. Das heißt, wir müssen, um es in den Worten von Kurt und Gladys Lang, den großen Pionieren der amerikanischen Medienforschung, auszudrücken, uns der schwierigen Aufgabe stellen, herauszufinden, wie "das Beurteilungsschema des anonymen Herrn Jedermann" funktioniert.- Mehr als tausend Worte - Dazu aber gilt es zunächst einmal zu klären, auf welchem Wege es überhaupt gelingt, homo sapiens etwas "glauben zu machen". Wie kann man es erreichen, dass Menschen das Wahrgenommene als wahr erachten, wie ist es zu schaffen, dass ihnen ein Argument einleuchtet, dass sie eine Schlussfolgerung überzeugt? Man würde denken, dass bei einem Wesen, das sich - als einziges auf diesem Planeten - mit der Erfindung der Lautsprache sein eigenes Kommunikationswerkzeug geschaffen hat, der Prozess der Meinungsbildung vor allem auf verbalem Wege erfolgt. Ohne die Erfindung der Sprache hätte der Mensch schließlich einen sehr engen geistigen Horizont. Er wüsste nichts von der Existenz all jener Dinge, die jenseits seines engen persönlichen Erfahrungsraumes liegen. Er könnte kaum vom Wissen und vom Erfahrungsschatz anderer profitieren. Ja, er wüsste nicht mal, ob und in welcher Weise das Weltbild, das sein Gegenüber sich zurechtlegt, sich von dem seinigen unterscheidet. ..."
  20. Meyer, R.: Allein, es wär' so schön gewesen : Der Copernic Summarzier kann Internettexte leider nicht befriedigend und sinnvoll zusammenfassen (2002) 0.01
    0.0077103674 = product of:
      0.03084147 = sum of:
        0.03084147 = weight(_text_:und in 1648) [ClassicSimilarity], result of:
          0.03084147 = score(doc=1648,freq=16.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.24258271 = fieldWeight in 1648, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1648)
      0.25 = coord(1/4)
    
    Abstract
    Das Netz hat die Jagd nach textlichen Inhalten erheblich erleichtert. Es ist so ein-fach, irgendeinen Beitrag über ein bestimmtes Thema zu finden, daß man eher über Fülle als über Mangel klagt. Suchmaschinen und Kataloge helfen beim Sichten, indem sie eine Vorauswahl von Links treffen. Das Programm "Copernic Summarizer" geht einen anderen Weg: Es erstellt Exzerpte beliebiger Texte und will damit die Lesezeit verkürzen. Decken wir über die lästige Zwangsregistrierung (unter Pflichtangabe einer Mailadresse) das Mäntelchen des Schweigens. Was folgt, geht rasch, nicht nur die ersten Schritte sind schnell vollzogen. Die Software läßt sich in verschiedenen Umgebungen einsetzen. Unterstützt werden Microsoft Office, einige Mailprogramme sowie der Acrobat Reader für PDF-Dateien. Besonders eignet sich das Verfahren freilich für Internetseiten. Der "Summarizer" nistet sich im Browser als Symbol ein. Und mit einem Klick faßt er einen Online Text in einem Extrafenster zusammen. Es handelt sich dabei nicht im eigentlichen Sinne um eine Zusammenfassung mit eigenen Worten, die in Kürze den Gesamtgehalt wiedergibt. Das Ergebnis ist schlichtes Kürzen, das sich noch dazu ziemlich brutal vollzieht, da grundsätzlich vollständige Sätze gestrichen werden. Die Software erfaßt den Text, versucht Schlüsselwörter zu ermitteln und entscheidet danach, welche Sätze wichtig sind und welche nicht. Das Verfahren mag den Entwicklungsaufwand verringert haben, dem Anwender hingegen bereitet es Probleme. Oftmals beziehen sich Sätze auf frühere Aussagen, etwa in Formulierungen wie "Diese Methode wird . . ." oder "Ein Jahr später . . ." In der Zusammenfassung fehlt entweder der Kontext dazu oder man kann nicht darauf vertrauen, daß der Bezug sich tatsächlich im voranstehenden Satz findet. Die Liste der Schlüsselwörter, die links eingeblendet wird, wirkt nicht immer glücklich. Teilweise finden sich unauffällige Begriffe wie "Anlaß" oder "zudem". Wenigstens lassen sich einzelne Begriffe entfernen, um das Ergebnis zu verfeinern. Hilfreich ist das mögliche Markieren der Schlüsselbegriffe im Text. Unverständlich bleibt hingegen, weshalb man nicht selbst relevante Wörter festlegen darf, die als Basis für die Zusammenfassung dienen. Das Kürzen des Textes ist in mehreren Stufen möglich, von fünf bis fünfzig Prozent. Fünf Prozent sind unbrauchbar; ein guter Kompromiß sind fünfundzwanzig. Allerdings nimmt es die Software nicht genau mit den eigenen Vorgaben. Bei kürzeren Texten ist die Zusammenfassung von angeblich einem Viertel fast genauso lang wie das Original; noch bei zwei Seiten eng bedrucktem Text (8 Kilobyte) entspricht das Exzerpt einem Drittel des Originals. Für gewöhnlich sind Webseiten geschmückt mit einem Menü, mit Werbung, mit Hinweiskästen und allerlei mehr. Sehr zuverlässig erkennt die Software, was überhaupt Fließtext ist; alles andere wird ausgefiltert. Da bedauert man es zuweilen, daß der Summarizer nicht den kompletten Text listet, damit er in einer angenehmen Umgebung schwarz auf weiß gelesen oder gedruckt wird. Wahlweise zum manuellen Auslösen der Zusammenfassung wird der "LiveSummarizer" aktiviert. Er verdichtet Text zeitgleich mit dem Aufrufen einer Seite, nimmt dafür aber ein Drittel der Bildschirmfläche ein - ein zu hoher Preis. Insgesamt fragen wir uns, wie man das Programm sinnvoll nutzen soll. Beim Verdichten von Nachrichten ist unsicher, ob Summarizer nicht wichtige Details unterschlägt. Bei langen Texten sorgen Fragen zum Kontext für Verwirrung. Sucht man nach der Antwort auf eine Detailfrage, hilft die Suchfunktion des Browsers oft schneller. Eine Zusammenfassung hätte auch dem Preis gutgetan: 100 Euro verlangt der deutsche Verleger Softline. Das scheint deutlich zu hoch gegriffen. Zumal das Zusammenfassen der einzige Zweck des Summarizers ist. Das Verwalten von Bookmarks und das Archivieren von Texten wären sinnvolle Ergänzungen gewesen.

Languages

  • d 4221
  • e 486
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 219
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • p 1
  • More… Less…

Themes

Subjects

Classifications