Search (4748 results, page 207 of 238)

  • × year_i:[2000 TO 2010}
  1. Martinez-Conde, S.; Macknik, S.L.: Wie Zauberer mit der Wahrnehmung spielen (2009) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 165) [ClassicSimilarity], result of:
          0.02899406 = score(doc=165,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 165, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=165)
      0.25 = coord(1/4)
    
    Abstract
    Zauberkünstler manipulieren seit Jahrhunderten Wahrnehmung und Aufmerksamkeit der Zuschauer. Dabei haben sie intuitiv manche Erkenntnisse der modernen Neurowissenschaft vorweggenommen. Die kann auch heute noch von ihnen lernen.
  2. Garfinkel, S.L.: Big Brother mit Sehschwäche (2009) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 214) [ClassicSimilarity], result of:
          0.02899406 = score(doc=214,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 214, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=214)
      0.25 = coord(1/4)
    
    Abstract
    Ob es den Datenkraken wirklich gibt, der die Datenspuren aller Menschen verfolgt und sie damit bis ins Letzte ausspioniert, bleibt das Geheimnis der Geheimdienste. Aber wenn er existiert, hat er die größten Schwierigkeiten, seine Dossiers in Ordnung zu halten.
  3. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.02899406 = score(doc=729,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  4. Klein, A.; Haberer, M.: Lernen ohne Grenzen? : Zur Vernetzung von E-Learning-Angeboten am Beispiel der UB Mannheim (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 738) [ClassicSimilarity], result of:
          0.02899406 = score(doc=738,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=738)
      0.25 = coord(1/4)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie - Sonderband; 92
  5. dpa: Microsoft will aufholen : Viel Geld für Angriff auf Google (2006) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 52) [ClassicSimilarity], result of:
          0.02899406 = score(doc=52,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 52, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=52)
      0.25 = coord(1/4)
    
    Content
    "Microsoft greift für den Angriff auf Suchmaschinen-Marktführer Google noch tiefer in die Tasche. Die Ausgaben für das Online-Anzeigengeschäft, das MSN-Portal und neue Suchtechnologien werden im Geschäftsjahr, das im Juli startet, um 60 Prozent auf 1,6 Milliarden Dollar aufgestockt, wie Konzernchef Steve Ballmer ankündigt. Allein 1,1 Milliarden Dollar davon gingen in Forschung und Entwicklung. Microsoft sei im Markt für Online-Suche sehr ernsthaft engagiert, sagt Ballmer. "Nur zwei bis drei Unternehmen können wirklich die Infrastruktur liefern, die mit den Anforderungen der Konsumenten und Anzeigenkunden Schritt halten kann." Derzeit dominiert der weltgrößte Suchmaschinenbetreiber Google diesen Markt mit Abstand. Allein in den USA laufen nach Angaben von Nielsen Net-Rating 49 Prozent aller Suchanfragen über Google. Microsofts MSN Search rangiert derzeit mit knapp elf Prozent an dritter Stelle, noch hinter Yahoo mit gut 22 Prozent der Suchanfragen. Zudem will Microsoft ein bisher noch weitgehend unerschlossenes Geschäftsgebiet besetzen: Werbung in Videospielen. Dazu übernimmt der weltgrößte Softwarekonzern die darauf spezialisierte Firma Massive, bestätigt der für die Spielekonsole Xbox zuständige Microsoft-Manager Robbie Bach. Die in New York ansässige Firma mit derzeit rund 80 Beschäftigten hat Verträge unter anderem mit führenden Spiele-Produzenten wie THQ und Konami."
  6. Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 497) [ClassicSimilarity], result of:
          0.02899406 = score(doc=497,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 497, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=497)
      0.25 = coord(1/4)
    
    Abstract
    SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
  7. Standard-Thesaurus Wirtschaft jetzt bei der ZBW online (2009) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 822) [ClassicSimilarity], result of:
          0.02899406 = score(doc=822,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 822, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=822)
      0.25 = coord(1/4)
    
    Content
    "Der Standard-Thesaurus Wirtschaft (STW) war bislang im Online-Angebot von GBI-Genios zugänglich. Seit April 2009 stellt auch die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) den STW in der aktuellen Version 8.04 in Deutsch und Englisch online im Web (http://zbw.eu/stw/) bereit. Per direktem Link gelangt man von dort in die ZBW-Datenbank ECONIS (http://www.econis.eu/). Der Thesaurus ist zur Nutzung im Semantic Web aufbereitet; jeder Deskriptor ist mit einem persistenten Identifier versehen, für dessen langfristige Stabilität die ZBW garantiert. Darüber hinaus wird der STW für die allgemeine nicht-kommerzielle Nutzung unter einer Creative-Commons-Lizenz bereitgestellt. Der Standard-Thesaurus Wirtschaft wurde ursprünglich in den 1990er Jahren unter Förderung des Bundesministeriums für Wirtschaft von der ZBW gemeinsam mit dem ifo Institut für Wirtschaftsforschung (München), dem HWWA Institut für Wirtschaftsforschung und der Gesellschaft für Betriebswirtschaftliche Information (GBI, München) entwickelt. Fragen zum Inhalt beantwortet das Thesaurus- Team ([email protected] ); Fragen zur technischen Umsetzung und zum Semantic Web sind an J. Neubert ([email protected] ) zu richten."
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.3, S.127
  8. Darnton, R.: ¬Die Bibliothek im Informationszeitalter : 6000 Jahre Schrift (2009) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1017) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1017,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1017, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1017)
      0.25 = coord(1/4)
    
    Abstract
    Information wächst explosionsartig, und die Informationstechnologie ändert sich so rasch, dass wir vor einem grundsätzlichen Problem stehen: Wie ist in dieser neuen Landschaft Orientierung möglich? Was wird etwa aus wissenschaftlichen Bibliotheken angesichts technischer Wunderwerke wie Google? Wie verhält man sich sinnvoll? Ich habe auf diese Frage keine Antwort, aber ich schlage als Zugang zu dieser Frage einen Blick in die Geschichte der Informationsübermittlung vor. Stark vereinfacht könnte man sagen, dass es vier grundlegende informationstechnologische Veränderungen gegeben hat, seit die Menschen zu sprechen lernten. Irgendwann um 4000 v. Chr. haben die Menschen zu schreiben gelernt. Die ägyptischen Hieroglyphen gehen auf ca. 3200 v. Chr. zurück, die alphabetische Schrift auf ca. 1000 v. Chr. Wissenschaftlern wie Jack Goody zufolge war die Erfindung des Schreibens der wichtigste technische Durchbruch in der Geschichte der Menschheit. Sie transformierte die Beziehung der Menschen zur Vergangenheit und ebnete den Weg für das Aufkommen des Buchs als historische Macht. Die Geschichte des Buchs erfuhr einen weiteren technischen Umbruch, als kurz nach Beginn der christlichen Zeitrechnung der Kodex die Schriftrolle ersetzte. Im dritten Jahrhundert n. Chr. spielte der Kodex - also das Buch mit Seiten, die umgeblättert werden, im Gegensatz zur Schriftrolle, die ausgerollt wird - eine Schlüsselrolle in der Verbreitung des Christentums. Es veränderte die Erfahrung des Lesens von Grund auf: die Seite wurde zu einer Wahrnehmungseinheit, und die Leser konnten einen klar artikulierten Text durchblättern, der schließlich auch differenzierte (also durch Leerräume getrennte) Wörter, Absätze, Kapitel, Inhaltsverzeichnisse, Indizes und andere Leseerleichterungen enthielt.
  9. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1123) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1123,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1123, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1123)
      0.25 = coord(1/4)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  10. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1126) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1126,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1126)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  11. Fischer, N.: Kundenorientierte Platzierung der Medien in öffentlichen Bibliotheken (2007) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 1573) [ClassicSimilarity], result of:
          0.02899406 = score(doc=1573,freq=8.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 1573, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1573)
      0.25 = coord(1/4)
    
    Abstract
    Der Einfluss der Platzierung auf die Orientierung in der Bibliothek ist ein wichtiges, bisher weitgehend vernachlässigtes Kriterium in Öffentlichen Bibliotheken. Die Arbeit analysiert eine kundenorientierte Platzierung der Medien, die das Kriterium der Sucheffizienz erfüllt.Das Instrument Bibliotheksgestaltung wird systematisiert und zum ersten Mal im Bibliothekswesen eine begriffliche Abgrenzung der beiden Entscheidungsbereiche Präsentation und Platzierung vorgenommen. Die für eine kundenorientierte Platzierung dargelegten, theoretischen Grundlagen bilden die Basis für die empirischen Erhebungen in zwei Öffentlichen Bibliotheken. Im Vordergrund stehen die Analyse des Platzierungswissens sowie die Ermittlung einer kundenorientierten Platzierung der Wissensbereiche und ihrer Farbassoziationen.
    Series
    Berliner Arbeiten zur Bibliotheks- und Informationswissenschaft ; Bd. 18
  12. Mathiesen, K.: Wir sitzen alle in einem Boot : die Verantwortung kollektiver Akteuere und ihrer Mitglieder (2009) 0.01
    0.007248515 = product of:
      0.02899406 = sum of:
        0.02899406 = weight(_text_:und in 519) [ClassicSimilarity], result of:
          0.02899406 = score(doc=519,freq=2.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24504554 = fieldWeight in 519, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=519)
      0.25 = coord(1/4)
    
  13. Harms, T.: Kriegserklärung : Telekom schockiert mit neuem Internet-Tarif die Konkurrenz (2000) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 6205) [ClassicSimilarity], result of:
          0.028848726 = score(doc=6205,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 6205, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6205)
      0.25 = coord(1/4)
    
    Content
    "Robert T-Online hat endlich wieder einen spannenden Job. Die Aufgabe, Anleger für den Börsengang der Telekom-Internettochter zu begeistern, hat das virtuelle Reklamemännchen abgehakt. Jetzt wirbt der strohblonde Robert bundesweit auf Plakaten und in Zeitungsanzeigen für ,Sssssuper-Highspeed zum Sssssuperpreis". Gemeint ist der brandneue Internettarif T-Online DSL Flat 49 Mark Pauschale im Monat für unbegrenztes Surfen im World Wide Web ohne zusätzliche Telefongebühren. Und das bei Übertragungsraten von 768 Kilobit pro Sekunde für das Herunterladen und 128 Kilobit pro Sekunde für das Versenden von Daten. Also satte zwölfmal so schnell wie bei einem herkömmlichen ISDN-Anschluss. Für Telekom-Marketingvorstand Detlev Buchal ein schlicht unschlagbares Angebot". Das Kürzel DSL steht für "Digital Subscriber Line", zu deutsch "Digitale Teilnehmer-Leitung". DSL-Technologie ermöglicht die Ubertragung breitbandiger Datendienste auf herkömmlichen Telefon-Kupferkabeln. DSL-Zugänge ins Internet bieten nicht nur einen deutlich rascheren Seitenaufbau, sie leisten vor allem erstmals die Übermittlung von Bild- und Tondateien in befriedigender Qualität auf den PC. Mit DSL kann das strapazierte Schlagwort vom Internet-Fernsehen erstmals Realität werden. Zwar hält der Pink Panther schon seit Sommer 1999 unter dem Produktnamen T-DSV für Geschäfts- und Privatkunden auch einen Online-Hochgeschwindigkeitszug unter Dampf. Doch das Angebot stand nur in einigen Ballungsräumen zur Verfügung, schreckte den gemeinen Web-Nutzer durch allzu hohe Entgelte ab und lockte deshalb bisher nur rund 100 000 Interessenten hinter dem PC hervor. Mit der seit Monatsbeginn gültigen drastischen Preissenkung hat sich der Bonner Multimedia-Riese nicht weniger vorgenommen, als in den nächsten Jahren die breite Masse der bereits über 18 Millionen deutschen Internet-Nutzer in Highspeed-Surfer zu verwandeln.
    Und das auf den Telefonstrippen der Deutschen Telekom, als Kunden des hauseigenen Internet-Dienstes T-Online. Unser Ziel ist ganz klar", verkündet Telekom-Manager Buchal: "Die Deutsche Telekom macht mit T-DSL aus dem Internet das schnelle Internet für jedermann". Um tatsächlich alle Welt mit den Hochgeschwindigkeits-Datennetz beglücken zu können, muss allerdings das Telefonnetz in den nächsten Monaten aufgerüstet werden. Bis Ende des Jahres soll der Web-Turbo bereits in rund 600 Ortsnetzen, bis Ende 2001 für 90 Prozent aller Haushalte zur Verfügung stehen. Ende 2000 wollen Buchal und Kollegen 500 000 DSL-Kunden gewonnen haben. Wichtigster Telekom-Kooperationspartner bei der Errichtung der anspruchsvollen DSL-Infrastruktur ist die Firma Siemens. Über die Investitionskosten des Vorhabens wahrt die Bonner Telekomzentrale Stillschweigen. Wer das neue DSI-Verfahren von T-Online nutzen will, kann das sowohl mit einem ISDN-Telefonanschluss als auch mit einer herkömmlichen Leitung. Alle momentan angebotenen ISDN-Tarife der Telekom, aber auch der "analoge" T-Net-Tarif - sind mit dem DSL-Pauschalpreis von 49 Mark kombinierbar Die notwendigen Zusatzgeräte (DSL-Modem und Splitter) werden von der Telekom zur Verfügung gestellt. Unternehmen wie die Hamburger TV-Produktionsfirma MME (Me, Myself & Eye) warten bereits sehnlichst auf eine stärkere Verbreitung von DSL-Anschlüssen. MME will auf speziellen Intemet-TV-Kanälen Pop-Konzerte und Musikvideos ausstrahlen. Für unser Geschäft sind breitbandige Internet-Zugänge zu günstigen Preisen absolut essentiell", betont Christoph Post, MME-Vorstand Neue Medien. Deshalb sind wir hocherfreut über die Aktivitäten der Telekom."
    Weniger begeistert sind die Rivalen der Telekom beim Kampf um den Telefon- und Internetmarkt. Sie werden von der TarifOffensive kalt erwischt. Arcor-Mannesmann etwa dürfte mit dem gerade eingeführten Angebot von 79 Mark für einen 768-Kilobit-Zugang in Zwangs-Kombination mit einem Hochpreis-ISDN-Anschluss beim Kunden wenig Punkte sammeln. Online-Hauptkonkurrent AOL hat das Produkt DSL-Flatrate bislang überhaupt noch nicht auf dem Plan. Dabei könnte das hauseigene Intemet-TV-Angebot AOLlive durch den DSL-Turbo profitieren. Auch bei der Bertelsmann Broadband Group (BBG) ist man mit den DSL-Offerten der Telekom nicht zufrieden. Allerdings aus anderen Gründen. Das Hamburger Unternehmen möchte über Telefonund Kabelnetze interaktives Fernsehen in die Haushalte schicken. "Die Bandbreite ist das entscheidende Handicap", sagt Michael Schacht, Leiter Produktmanagement der BBG. Um unsere Angebote über DSL-Leitungen in guter Qualität auf einen Fernseher zu schicken, reichen 768 Kilobit nicht aus. Wir brauchen mindestens zwei Megabit." Helle Aufregung herrscht bei Deutschlands Kabelnetzbetreibern. Für eine "Kriegserklärung" an die Branche hält Dietmar Schickel, Geschäftsführer des Netzbetreibers Telecolumbus, das Vorgehen der Telekom. Telecolumbus bietet M Berlin einen Highspeed-Zugang zum Web über das TV-Netz an. 49 Mark sind ein quer subventionierter Dumpingpreis. Der Monopolist zeigt seine Krallen", schimpft Schickel. Hintergrund der Empörung: In den Businessplänen der KabelnetzUnternehmen steht die Vermarktung von Highspeed-Internet-Zugängen ganz oben. Sollte die Telekom mit ihrer DSL-Großoffensive in den nächsten zwei Jahren den Markt der Highspeed-Kunden abschöpfen, könnten sich die Milliardeninvestionen, die jetzt in die Modernisierung der Kabelnetze gesteckt werden, nicht mehr rechnen. "Das Tarifdumping" mahnt Schickel, "ist ein Fall für den Regulierer"."
  14. Wortsuche im Millisekunden-Takt (2002) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 999) [ClassicSimilarity], result of:
          0.028848726 = score(doc=999,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 999, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=999)
      0.25 = coord(1/4)
    
    Content
    "Unsere Fähigkeit zu Sprechen beruht auf einem mehrstufigen Hochgeschwindigkeitsprozeß im Gehirn, belegen niederländische Max-Planck-Wissenschaftler Sprachproduktion ist das Ergebnis zweier sehr schnell ablaufender Vorgänge im Gehirn, dem Abruf geeigneter Einträge aus einem "mentalen Lexikon" sowie der Vorbereitung dieser "Einträge" für das eigentliche Sprechen, berichten Wissenschaftler vom Max-Planck-Institut für Psycholinguistik in Nijmegen/Niederlande. Jeder Mensch lernt Sprechen und das bedeutet vor allem: Wörter zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Erwachsener bereits bis zu 50 Millionen Wörter gesprochen. Es gibt kaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unterhaltung liegt die durchschnittliche Sprechgeschwindigkeit bei zwei bis vier Wörtern pro Sekunde. Die Wörter dazu werden fortlaufend aus unserem "mentalen Lexikon" abgerufen, das mehrere zehntausend "Einträge" enthält. Bei diesem Vorgang machen wir erstaunlich wenig Fehler (und sagen z.B. "links" statt "rechts"). Durchschnittlich passiert uns das nicht mehr als einmal pro Tausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachmechanismus organisiert? Wissenschaftler erklären die prachproduktion als ein System zweier aufeinanderfolgender Verarbeitungsschritte (s. Abb.). Im ersten Schritt erfolgt die Wortauswahl: Erhält das Gehirn einen bestimmten inhaltlichen Reiz, z.B. von den visuellen Zentren, wählt es einen dazu passenden lexikalischen Eintrag aus dem mentalen Lexikon. Der zweiten Schritt behandelt die Formenkodierung und berechnet die artikulatorischen Gesten, die für die Aussprache des Zielwortes benötigt werden. Es ist der Forschergruppe um Prof. Willem Levelt, Dr. Antje Meyer und Dr. Ardi Roelofs in langjähriger Teamarbeit gelungen, das Modell experimentell zu bestätigen; Dr. Roelofs konnte diese Theorie in einem umfassenden Computerprogramm mit dem Namen "WEAVER++" umsetzen. Ein wichtiges experimentelles Verfahren zur Erforschung des lexikalischen Zugriffs im Gehirn ist das Benennen von Bildern. Auf dem Monitor erscheint ein Bild, z.B. ein Pferd, das die Versuchsperson so schnell wie möglich benennen soll. Hierbei wird die Reaktionszeit, d.h. die Zeit zwischen dem Erscheinen des Bildes und dem Beginn des Sprechens exakt gemessen. Diese liegt normalerweise bei 600 Millisekunden (ms). Für die Auswahl und Aussprache eines Wortes brauchen wir also weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst erfolgt in zwei Teilstufen: Zuerst wird das Bild erkannt und ein Zielkonzept für die Benennungsaufgabe selektiert. Die Tests können so gesteuert werden, dass die Versuchspersonen entweder "Pferd", "Tier" oder "Hengst" auswählen, um das Bild zu benennen. In der zweiten Stufe, der so genannten "Lemma-Selektion", wird der hiermit übereinstimmende Eintrag gewählt, also z.B. nur "Pferd". Diesen Eintrag nennt man "Lemma", was soviel bedeutet wie "syntaktisches Wort", d.h. es enthält alle syntaktischen Eigenschaften wie Wortklasse (Substantiv, Verb usw.) und syntaktische Merkmale (wie Geschlecht bei Substantiven, transitive Beschaffenheit bei Verben). Diese Wortauswahl erfolgt in Konkurrenz zu anderen Wörtern. Die Max-Planck-Wissenschaftler konnten messen, daß semantisch verwandte Wörter, wie "Tier" oder "Hengst", bei diesem Schritt ebenfalls aktiviert werden.
    Mit Hilfe der quantitativen Computertheorie wird die Reaktionszeit für eine Wortauswahl unter Konkurrenz vorausgesagt. Überprüft werden diese Voraussagen in spezifischen Bildbenennungsexperimenten: Dabei werden den Versuchspersonen beim Bildbenennen - visuell oder akustisch - andere Wörter präsentiert. Diesen Ablenkungsreiz müssen sie ignorieren. Ist beispielsweise "Pferd" das Zielwort, reagiert die Versuchsperson beim Hören des damit nicht verwandten Wortes "Stuhl" etwas langsamer. Hört die Versuchsperson jedoch das semantisch verwandte Wort "Kuh", wird eine viel stärkere Verzögerung gemessen, zusätzlich etwa 50 bis 100 Millisekunden (je nach Rahmenbedingungen). Diesen "semantischen Verzögerungseffekt" fanden die Max-Planck-Wissenschaftler in einer Vielzahl von Experimenten bestätigt. Der Zeitverlauf der Lemma-Selektion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologische Forschung in Leipzig mit Hilfe der Magnetenzephalographie (MEG) gemessen und bestätigt. Hierbei fanden die Max-Planck-Forscher außerdem heraus, dass bei der emma-Auswahl Regionen im linken lateralen temporalen Lobus aktiv sind. Nach der Lemma-Selektion erfolgt der zweite Schritt, die Wortformplanung oder Wortformen-Kodierung. Dazu muss zuerst der phonologische Code abgerufen werden, d.h. eine Reihe phonologischer "Segmente" oder "Phoneme", z.B. " p, f, e, r, d". Bei geläufigen Wörtern wird der phonologische Code schneller (bis zu 40 Millisekunden ) abgerufen als bei selten benutzten Wörtern. Bei der Bildbenennung kann der Zugriff dadurch erleichtert werden, dass der Versuchsperson zeitgleich phonologisch verwandte Wörter präsentiert werden. Versuchspersonen nennen "Pferd" schneller, wenn sie während der Bildanbietung das phonologisch verwandte Wort "Pfeil" hören, als das phonologisch unterschiedliche Wort "Stuhl". Auch den Zeitverlauf dieser phonologischen Suche konnten die Wissenschaftler mit dem Computermodell "WEAVER++" exakt voraussagen. Ist das Abrufen des Codes aus dem mentalen Lexikon abgeschlossen, erfolgt die Silbenbildung. Diese wird Phonem für Phonem zusammengestellt, aus "p, f, e, r, d" zum Beispiel wird /pfert/. Wird das Zielwort jedoch im Plural benötigt (z.B. wenn zwei ferde auf dem Bild zu sehen sind), werden nacheinander zwei Silben - /pfer/--/de/ - gebildet. Anders gesagt, ob die Silbe "/pfert/" oder "/pfer/" gebildet wird, ist situationsbedingt. Das schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekunden pro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reaktionszeit: Testpersonen brauchten beim Benennen für mehrsilbige Wörter länger als für einsilbige. Die letzte Stufe der Wortformen-Kodierung ist das phonetische Kodieren, das Abrufen eines artikulatorisch-motorischen Programms für jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an, daß dazu ein mentaler Silbenvorrat existiert, ein "Lager" an Gesten oder motorischen Programmen für häufig benutzte Silben. Die Vermutung liegt nahe, daß beim Speichern häufig gebrauchter Silben der prämotorische Cortex/die Broca Area beteiligt ist. Die faktische Ausführung der aufeinanderfolgenden Silbenprogramme vom laryngealen und supralaryngealen Artikulationssytem generiert letztendlich das gesprochene Wort."
  15. Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 1456) [ClassicSimilarity], result of:
          0.028848726 = score(doc=1456,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 1456, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1456)
      0.25 = coord(1/4)
    
    Content
    "Was haben die finnische Botschaft in Rumänien, eine dänische Organisation gegen die Todesstrafe in den USA und die schottische Zeitung 'Aberdeen Independent" gemeinsam? Ihre Internet-Seiten gefährden jugendliche Nutzer mit pornografishen Inhalten. So sieht es zumindest das Filterprogramm "N2H2 Internet Filtering 2.0". Diese und 6.774 weitere zu Unrecht blockierte Seiten präsentiert die "American Civil Liberties Union (ACLU)" als Beweis in einem Prozess um den sog. Children's Internet Protection Act (CIPA). Verhandelt wird dabei eine Frage von internationaler Bedeutung: Ab wann gefährdet Jugendschutz im Internet die freie Meinungsäußerung? In Deutschland rückt die Filter-Problematik ins öffentliche Bewusstsein, seit die Düsseldorfer Bezirksregierung von Zugangs-Providern eine Blockade bestimmter Internet-Seiten fordert (siehe Netzwerk-Seite vom 12. März) - und dagegen Protest laut wird, wie am Wochenende mit einer Demonstration in der nordrheinwestfälischen Landeshauptstadt. ln den Vereinigten Staaten befassen sich Bürgerrechtsgruppen und Gerichte bereits seit Mitte der neunziger Jahre mit Online-Filtern. Zwei Gesetze, die Minderjährige vor Pornografie im Netz schützen sollten, haben US-Gerichte bereits für verfassungswidrig erklärt beziehungsweise wegen Verfassungsbedenken vorerst gestoppt: 1996 den "Connmunications Decency Act" und 1998 den "Child Online Protection Ast". ln beiden Fällen war das wesentliche Argument gegen Zwangsfilterung die lneffektivität der Programme. Da auch Internetseiten über Empfängnisverhütung, Aids, die Diskriminierung Homosexueller oder gar die Cartoonfigur Snoopy gesperrt wurden, sahen die Gerichte die vom ersten Verfassungszusatz garantierte Meinungsfreiheit gefährdet. Es scheint wahrscheinlich, dass deshalb auch der jetzt verhandelte "Children's Internet Protestion Act" keinen Bestand haben wird. Das lassen die Äußerungen der Richter während der Verhandlung erwarten. Ihr Urteil werden sie Anfang Mai verkünden. Anders als die beiden früheren Gesetze gehört der CIPA nicht zum Strafrecht. Das Gesetz sieht vor, dass vom Jahr 2003 an Bibliotheken nur dann mit Bundesgeld unterstützt werden, wenn sie minderjährige Surfer von jugendgefährdenden Seiten fern halten. Ob das allerdings möglich ist, zweifelt Harvey Bartle, einer der drei Richter, an: "Ich denke, jedermann würde mir zustimmen, dass wir wahrscheinlich nicht hier sitzen würden, wenn es eine Technologie gäbe, die einfach Obszönitäten, Kinderpornografie und jugendgefährdende Inhalte ausschließen könnte." Solche Filter existieren nicht. Arbeiten die Programme mit von Menschen erstellten Listen, blockieren sie nicht einmal annähernd genügend Seiten. Allerdings kann man gute Entscheidungen erwarten. Denn Menschen verstehen anders als Computer, dass Aufklärungsangebote über Empfängnisverhütung durchaus für Minderjährige zugänglich sein sollten. Freilich sind schon solche Einsätzungen in den Vereinigten Staaten umstritten, wo es unterschiedliche Ansichten etwa über die Zulässigkeit von vorehelichem Sex gibt: Gerade deshalb ist das Schwelgen der meisten Hersteller von Filtersoftware übenden Inhalt ihrer Listen, deren Zustandekommen und die zu Grunde liegenden Wertvorstellungen beängstigend. Richter Bartle fragte einen als Zeugen geladenen Bibliothekar, der Filterprogramme einsetzt: "Sie delegieren die Verantwortung an ein außenstehendes Unternehmen? Wie kontrollieren sie, was der Hersteller der Filtersoftware tut?" Andere Filter arbeiten mit automatischer Texterkennnng. Die genaue Arbeitsweise halten die Produzenten geheim, allerdings dürfte die Suche nach Reizworten dabei eine bedeutende Rollenspielen. Damit ist wohl zu erklären, dass das Programm Cyberpatrol die Internet-Seite zum Buch "Peepshow: Media and Politics in an Age of Scandal" vier angesehener Publizisten blockiert hat. Der Sprachwissenschaftler Geoffrey Nunberg sagte vor Gerietet, eine präzise Analyse des Sinnzusammenhangs liege "weit jenseits der Möglichkeiten heutiger Technologie".
    Bei der Entscheidung des Gerichts dürfte es kaum bedeutend sein, wie hoch der Anteil zu Unrecht blockierter Seiten ist. Als der Anwalt des Justizministeriums vor Gericht argumentierte, der liege bei nur sechs Prozent, entgegnete der vorsit-zende Richter Edward Becker: "Und wie hoch ist der absolute Anteil geschützter freier Meinungsäußerung in diesen sechs Prozent? Wir reden hier über vielleicht Zehntausende von Seiten." Auf die Entscheidung des Gerichts - es ist im Gesetz als erste Instanz für juristische Auseinandersetzungen vorgesehen - wird in jedem Fall eine Berufung vor dem Obersten Gerichtshof folgen. Die haben sowohl die ACLU als auch das Justizministerium angekündigt. Ob das Gesetz für verfassungswidrig erklärt wird, ist weniger sicher wie bei den zwei Vorgängern, da es den Einsatz von Filterprogrammen nicht zwingend vorschreibt, sondern lediglich zur Voraussetzung für finanzielle Unterstützung macht. Auf das Geld sind allerdings viele der 40 000 US-Bibliotheken angewiesen. Die Entscheidung, ob der CIPA mit der US-Verfassung zu vereinbaren ist, wird jedoch die zentrale Frage nicht beantworten: Wie kann Jugendschutz im Internet garantiert werden, ohne in Zensur umzuschlagen? Zahlreiche Lösungsvorschläge hat schon vor zwei Jahren die vom USKongress berufene COPA-Rommission gemacht. In ihrem Bericht sind Filterprogramme lediglich ein - keineswegs zentrales - Instrument. Die Information der Eltern sollte an erster, Stelle stehen, da keine Technologie perfekt ist. Wenn Eltern sich nicht mit den Interessen und Internet-Sitzungen ihrer Rinder beschäftigen, nützen Filterprogramme wenig. Die Kommission schlug auch zahlreiche technische Lösungen vor: Ein Selbstklassifizierungssystem für Anbieter von Internet-Inhalten beispielsweise, die Einfüh-rung neuer Top-Level-Domains wie .xxx und .kids, die Verbreitung von Verfahren zur Altersprüfung, die Schaffung von Kommissionen, die Inhalte empfehlen und damit so genannte Greenspaces für Kinder schaffen. Seit Jahren stehen diese Ideen im Raum. Statt sie zu diskutieren, wähnt . man sich - nicht nur in den Vereinigten Staaten - in der falschen Sicherheit der Filterprogramme."
  16. Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 2486) [ClassicSimilarity], result of:
          0.028848726 = score(doc=2486,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 2486, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2486)
      0.25 = coord(1/4)
    
    Abstract
    Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
  17. Seckel, A.: Optische Illusionen (2004) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 3168) [ClassicSimilarity], result of:
          0.028848726 = score(doc=3168,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 3168, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3168)
      0.25 = coord(1/4)
    
    Abstract
    Für uns alle ist Sehen selbstverständlich. Es benötigt wenig Anstrengung. Doch das Sehen von Bildern, Objekten, Tiefen und Bewegung ist ein komplexer Prozess. Erst im letzten Jahrhundert bzw. den letzten 2O Jahren konnten Wissenschafter Fortschritte im Verstehen von Sehvermögen und Wahrnehmung erzielen. Nehmen Sie sich kurz Zeit und beobachten Sie die Welt um sich. Wenn Sie etwa den Kopf neigen, neigt sich da nicht auch die WeIt? Wenn Sie ein Auge schließen, verringert das nicht Ihre Tiefenwahrnehmung? Beachten Sie, was mit Farbe passiert, wenn Sie unterschiedlich beleuchtet wird. Gehen Sie um ein Objekt herum: Die Form verändert sich, doch die Wahrnehmung bleibt die gleiche. "Dahinterkommen" ist ein wirklich wunderbarer Vorgang. Hauptsächlich spielt sich dieser jedoch im Gehirn ab und nicht in ihrem Auge! Lichtwellen gelangen in die Augen und dringen in die fotorezeptiven Zellen der Netzhaut ein. Die Bilder, die so auf Ihrer Netzhaut entstehen, seien diese nun zwei- oder dreidimensional, werden zu flachen Darstellungen auf einer gewölbten Oberfläche. Diese bewirken eine natürliche Doppeldeutigkeit der Bilder, die auf Ihre Netzhaut gelangen. Für jedes Bild auf der Netzhaut gibt es unendlich viele Möglichkeiten für dreidimensionale Situationen, die genau dieses gleiche Bild verursachen können. Ihr Auge jedoch entscheidet sich gewöhnlich für die korrekte Interpretation. Genau das tut Ihr Gehirn: Es interpretiert! Es gibt einige sehr starke Einschränkungen, wie es dazu kommt. Außerdem muss Ihr Sehapparat die "Antwort" schnell finden. Alles in allem funktionieren diese Einschränkungen. In der realen WeIt sehen Sie nicht viele Illusionen, da Ihr Sehsystem viele Möglichkeiten kennt, Mehrdeutigkeiten auszuschließen. Viele dieser Möglichkeiten stützen sich auf die Regelmäßigkeiten der Welt, in der wir leben. Visuelle Wahrnehmung ist auf jeden Fall ein Prozess, der Mehrdeutigkeiten ausschließt. Doch Fehler können auch hier passieren. Zu Zeiten kommt es zu Illusionen, wenn das Bild, das wir aufnehmen, nicht genügend Information besitzt, um Mehrdeutigkeit auszuschließen. Es fehlen etwa wichtige Hinweise, die in der realen WeIt existieren und Mehrdeutigkeit ausschließen könnten.
    Andere Illusionen entstehen, wenn ein Bild eine Einschränkung verletzt, die auf einer Regelmäßigkeit unserer WeIt basiert. Andere Illusionen treten auf, weil zwei oder mehrere Einschränkungen miteinander in Konflikt stehen. Dies bedeutet, dass unser Auge das Geschehen auf mehrere Arten interpretieren kann. Obwohl das Bild auf Ihrer Netzhaut unverändert bleibt, sehen Sie nie eine Vermischung der beiden Wahrnehmungen, obwohl die beiden Interpretationen zwischen diesen hin- und hergerissen sind. So sind Illusionen sehr nützliche Werkzeuge für Wissenschafter. Sie können die verborgenen Einschränkungen des Sehsystems in einer Weise sichtbar machen, die das normale Sehvermögen nicht schafft. Viele Illusionen in diesem Buch werden Ihre Wahrnehmung wiederholt zum Narren halten, auch wenn Sie wissen, dass Sie hinters Licht geführt werden. Dies geschieht, weil es für Ihren Sehapparat wichtiger ist, seine Einschränkungen zu befolgen als sie zu verletzen, aus dem einfachen Grund, dass Sie auf etwas gestoßen sind, das ungewöhnlich, widersprüchlich oder paradox ist. Die Illusionen sind willkürlich in vier Galerien eingeteilt. Viele sind nicht allgemein bekannt, da sie ihren Ursprung in der Forschung haben. Es werden auch klassische Illusionen angeführt, wobei wir jedoch meist deren Effekt verstärkt bzw. gesteigert haben. Ich habe versucht, wissenschaftliche Erklärungen für die Illusionen zu liefern. Diese sind am Ende jeder Galerie angeführt. In vielen Fällen wissen wir jedoch heute noch keine Antwort. Dies trifft vor allem auf geometrische Illusionen wie etwa die Poggendorf-Illusion oder die Muller-Lyer-Illusion zu. Darum möchte ich betonen, dass die Erklärungen nicht auf allgemeine Gültigkeit plädieren, sondern durchaus skeptisch betrachtet werden sollen. Die Erforschung des Auges ist eines der aufregendsten Gebiete der Wissenschaft und das Studium von visuellen Illusionen bereitet große Freude. Ich hoffe, dass dieses Buch Jung und Alt überraschen und erfreuen wird und es auch zum Nachdenken über das wundersamste Mysterium dieses Universums anregt - dem menschlichen Gehirn.
  18. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
          0.028848726 = score(doc=4578,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 4578, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4578)
      0.25 = coord(1/4)
    
    Abstract
    Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
    Content
    INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
    Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
    Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
    Series
    Sprache, Sprechen und Computer. Bd. 8
  19. Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 5318) [ClassicSimilarity], result of:
          0.028848726 = score(doc=5318,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 5318, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5318)
      0.25 = coord(1/4)
    
    Abstract
    Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
    Content
    "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
    Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."
  20. Bouhs, D.: Volltext im Netz : Die Bücherwelt wird digital (2007) 0.01
    0.0072121816 = product of:
      0.028848726 = sum of:
        0.028848726 = weight(_text_:und in 2310) [ClassicSimilarity], result of:
          0.028848726 = score(doc=2310,freq=22.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.24381724 = fieldWeight in 2310, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2310)
      0.25 = coord(1/4)
    
    Content
    "Die Suche nach Informationen im Internet hält Google bereits fest in seiner Hand. Jetzt aber steht das kalifornische Unternehmen kurz davor, auch den Zugang zu Literatur entscheidend mitzubestimmen. Denn künftig will Google bei Suchabfragen neben Internetseiten auch Buchtitel aufführen. Nutzer können dann per Mausklick in das jeweilige Buch springen und in ihm ohne technische Hürden wie in Internetseiten stöbern. Eine solche Volltextsuche, die bereits in ei ner Vorversion abseits der regulären Suchmaske angesteuert werden kann, dürfte vor allem den Zugang zu Fachliteratur komfortabler machen. "Der größte Teil des Welt-Wissens befindet sich heute immer noch außerhalb des Internets", sagt Jens Redmer, Europadirektor von Google Book Search. Sein Projekt soll die Lücke zwischen Online- und Offline-Wissen schließen. Google würde damit noch mächtiger werden. In dieser Woche präsentierte Redmer in Mainz beeindruckende Zahlen: Weltweit mehr als 10000 Verlage sollen seinem Konzern inzwischen ihre aktuellen Publikationen liefern. Google digitalisiert die meist gedruckt gelieferten Werke, legt sie auf die Server undverknüpft sie mit einer Volltextsuche. Anders als beim zweiten Teil des Programms "Book Search" werden nicht historische Bestände von Partnerbibliotheken ins Internet gestellt, sondern aktuell über den klassischen Handel ver trieben Titel. Kritiker, etwa beim Börsenverein des Deutschen Buchhandels, bemängeln, dass die Verlage damit die Kontrolle über ihre Inhalte aufgeben. Redmer entgegnet. "Niemand kann das gesamte Buch einsehen. Und auch mit mehreren Suchabfragen können ein-zelne Nutzer maximal 20 Prozent des Inhalts einsehen." In der Tat können in aktuellen Publikationen Inhaltsverzeichnisse und teils mehrere Kapitel durchforstet werden, das komplette Buch ist jedoch nach wie vor nur in gedruckter Form zu haben.
    Google und seine Partnerverlage gehen eine umfangreiche Kooperation ein: Während der weltweit größte Suchmaschinenbetreiber mit den digitalisierten Büchern seine Trefferlisten gegenüber der Konkurrenz deutlich aufwerten kann, verlinkt er die Treffer im Gegenzug mit den Onlineshops der Verlage und darüber hinaus mit virtuellen Buchläden wie Amazon und Weltbild. Verknüpft sind die einzelnen Suchergebnisse aber auch mit einem weiteren Produkt des Unternehmens, mit "Google Maps". Bei Eingabe eines Ortes stellt die Suchmaschine auf einer Karte Buchhandlungen dar - inklusive Adresse, Telefonnummer und häufig Öffnungszeiten. Denn auch wenn immer mehr Bücher im Internet vertrieben werden, weiß Redmer: "80 Prozent der Produkte werden noch immer im lokalen Handel gekauft." Langfristig aber glaubt der Google-Manager an große Veränderungen in der Verlagsbranche: "Bücher sind immer verfügbar, auch wenn sie nur 50 Mal im Jahr verkauft werden und es sich deshalb für Verlage nicht mehr lohnt, sie auf Lager zu halten sagt Redmer. Dafür wolle Google den Verlagen schon bald die Möglichkeit anbieten, über das Internet elektronische Versionen von Büchern zu verkaufen - der Druck wäre gar nicht mehr zwingend nötig. Die englische Times berichtet gar von dem gemeinsamen Plan Googles mit amerikanischen Verlegern, Bücher auf mobilen Lesegeräten wie Mobiltelefonen oder Kleinstcomputern darzustellen. In Mainz sagte Redmer: "In Japan lesen Pendler ganze Romane auf ihren Handys - das ist verrückt, aber sie tun es." Derzeit sieht es so aus, als überließen die anderen Suchmaschinen Google das Feld bei urheberrechtlich geschützten Publikationen. Yahoo wollte sich zu entsprechenden Plänen nicht äußern, und in der US-Zentrale von Microsoft ("Live Search", ehemals "MSN Suche") ist lediglich davon die Rede, man wolle sich zunächst auf urheberrechtlich befreites Material konzentrieren. Auch der Börsenverein des Deutschen Buchhandels will noch Anfang Februar mit einer eigenen Datenbank an den Start gehen - wenn auch vorerst ebenfalls nur mit einer Testversion. "Es geht darum, möglichst schnell möglichst viele Titel einzuspeisen sagt Hauptgeschäftsführer Alexander Skipis. "Im Gegensatz zu dem Modell von Google können die Verleger bei uns selbst entscheiden, wie viel von jedem einzelnen Titel unentgeltlich oder auch gegen Bezahlung eingesehen werden kann." Von Google will sich der Verband nicht völlig distanzieren; Skipis kündigt eine: Kooperation an. Dabei soll der US-Konzern bei seinen Abfragen Zugriff auf das deutsche System erhalten. "Bei einem Klick auf einen Verweis sollen die Nutzer dann aber auf unseren Seiten landen, sagt Skipis und ergänzt: "Das ist zwar noch nicht ganz in trockenen Tüchern, es kann sich aber nur noch um Wochen handeln." "

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications