-
Lutz-Westphal, B.: ChatGPT und der "Faktor Mensch" im schulischen Mathematikunterricht (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1931) [ClassicSimilarity], result of:
0.029598296 = score(doc=1931,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1931, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1931)
0.25 = coord(1/4)
-
Gelitz, C.: Typisch »deutsch« verschaltet : Hirnanatomie (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1938) [ClassicSimilarity], result of:
0.029598296 = score(doc=1938,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1938, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1938)
0.25 = coord(1/4)
- Abstract
- Deutsch und Arabisch haben beide ihre Tücken, aber in unterschiedlicher Weise. Das zeigt sich auch im Gehirn: Die Sprachnetzwerke passen sich den besonderen Eigenschaften der Muttersprache an.
-
Bischoff, M.: ¬Das Dornröschen-Problem spaltet die Mathewelt : Die fabelhafte Welt der Mathematik (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1941) [ClassicSimilarity], result of:
0.029598296 = score(doc=1941,freq=8.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1941, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1941)
0.25 = coord(1/4)
- Content
- "Das Problem, das die Gemüter der Fachwelt erhitzt, lautet folgendermaßen: Dornröschen erklärt sich bereit, an einem Experiment teilzunehmen, bei dem sie sonntags in Schlaf versetzt wird. Ein Experimentator wirft dann eine Münze. Bei »Kopf« weckt er Dornröschen am Montag auf und verabreicht ihr dann wieder ein Schlafmittel und lässt sie bis Mittwoch schlafen. Falls »Zahl« herauskommt, weckt er Dornröschen ebenfalls am Montag, versetzt sie dann wieder in einen Schlaf und weckt sie am Dienstag wieder, um sie dann nochmals bis Mittwoch zu narkotisieren. Der einzige Unterschied ist also, dass sie bei »Zahl« zweimal und bei »Kopf« einmal geweckt wird. Wichtig dabei ist: Durch das Schlafmittel hat Dornröschen keine Erinnerung daran, ob sie zuvor schon einmal geweckt wurde. Sie kann also nicht unterscheiden, ob Montag oder (falls Zahl fiel) Dienstag ist. Beim Aufwecken verrät der Experimentator Dornröschen nichts: weder den Ausgang des Münzwurfs noch den Tag. Er stellt ihr nach jedem Aufwachen aber eine Frage: Wie hoch ist die Wahrscheinlichkeit, dass die Münze »Kopf« gezeigt hat?"
-
Buzsaki, G.: Wie das Gehirn die Welt konstruiert (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1989) [ClassicSimilarity], result of:
0.029598296 = score(doc=1989,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1989, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1989)
0.25 = coord(1/4)
- Abstract
- Eine neue Theorie besagt: Das Gehirn ist bei der Geburt kein unbeschriebenes Blatt, sondern verfugt bereits uber ein groses Repertoire an Aktivitatsmustern. Das eröffnet Perspektiven dazu, wie wir unsere Umwelt wahrnehmen und darauf reagieren.
-
Hartnett, K.: Sind Sprachmodelle bald die besseren Mathematiker? (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1990) [ClassicSimilarity], result of:
0.029598296 = score(doc=1990,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1990, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1990)
0.25 = coord(1/4)
- Abstract
- Algorithmen wie ChatGPT tun sich selbst mit einfachen Rechenaufgaben noch immer schwer. Zwei neue Ansätze sollen das ändern - und könnten KI deutlich intelligenter machen.
-
Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2053) [ClassicSimilarity], result of:
0.029598296 = score(doc=2053,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2053, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2053)
0.25 = coord(1/4)
- Abstract
- Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
-
Bischoff, M.: Kacheln in höheren Dimensionen (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2063) [ClassicSimilarity], result of:
0.029598296 = score(doc=2063,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2063, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2063)
0.25 = coord(1/4)
- Abstract
- Lange glaubten Mathematiker, dass sich drei- und höherdimensionale Parkettierungen ähnlich verhalten wie ebene Mosaikmuster. Sie mussten erst eine neue Sprache entwickeln, um zu verstehen, dass sie damit falschlagen.
-
Pany, T.: KI: Wenn echte Fotos als gefälscht gebrandmarkt werden (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2068) [ClassicSimilarity], result of:
0.029598296 = score(doc=2068,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2068, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2068)
0.25 = coord(1/4)
- Abstract
- Propaganda und Manipulation: Mediennutzer vor dem nächsten Schwierigkeitsgrad. Der Vorwurf einer Fälschung kann politisch jedes beliebige Argument unterstützen. Technische Analysen lösen nicht alle Probleme.
-
Sokolow, A.: Es menschelt in der KI-Welt (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2171) [ClassicSimilarity], result of:
0.029598296 = score(doc=2171,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2171)
0.25 = coord(1/4)
- Abstract
- Für die junge Branche ist es ein Erdbeben: OpenAl-Chef Sam Altman, eine ihrer Galionsfiguren, verliert seinen Job. Mit ChatGPT haben OpenAl und Altman den Hype um Künstliche Intelligenz angestoßen.
-
Sokolow, A.: Chaostage bei ChatGPT (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2172) [ClassicSimilarity], result of:
0.029598296 = score(doc=2172,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2172, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2172)
0.25 = coord(1/4)
- Abstract
- Dass Firmenchefs gefeuert werden, passiert immer wieder. Dass 90 Prozent der Mitarbeiter dem gefeuerten Boss folgen wollen, gibt es eher selten. Beim ChatGPT-Macher OpenAl entschied das den Machtkampf mit und sorgte für eine dramatische Wendung. Vgl. auch den Kommentar von Peter Müller: Der große Kampf um KI auf derselben Seite.
-
Riecken, M.: Lehrer:innenfortbildung und generative KI : Wie geht das zusammen? (2024)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
0.029598296 = score(doc=2309,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2309, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2309)
0.25 = coord(1/4)
-
Schaffner, V.: ¬ Die Auffindbarkeit in Bibliothekskatalogen im Fokus : Bibliotheken und Verbundzentralen dokumentieren ihre Anforderungen an Verlagsmetadaten für E-Books (2023)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2316) [ClassicSimilarity], result of:
0.029598296 = score(doc=2316,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2316, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2316)
0.25 = coord(1/4)
-
Brandstetter, T.: ¬Das Gehirn als Vorbild (2024)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2398) [ClassicSimilarity], result of:
0.029598296 = score(doc=2398,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2398, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2398)
0.25 = coord(1/4)
- Abstract
- Computerchips stoßen an ihre Grenzen, künstliche Intelligenz ist noch immer fehleranfällig und braucht Unmengen an Energie. Die Funktionsweise des Gehirns könnte wichtige Anregungen liefern, um diese Probleme zu lösen.
-
Harms, T.: Kriegserklärung : Telekom schockiert mit neuem Internet-Tarif die Konkurrenz (2000)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 6205) [ClassicSimilarity], result of:
0.029449934 = score(doc=6205,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 6205, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6205)
0.25 = coord(1/4)
- Content
- "Robert T-Online hat endlich wieder einen spannenden Job. Die Aufgabe, Anleger für den Börsengang der Telekom-Internettochter zu begeistern, hat das virtuelle Reklamemännchen abgehakt. Jetzt wirbt der strohblonde Robert bundesweit auf Plakaten und in Zeitungsanzeigen für ,Sssssuper-Highspeed zum Sssssuperpreis". Gemeint ist der brandneue Internettarif T-Online DSL Flat 49 Mark Pauschale im Monat für unbegrenztes Surfen im World Wide Web ohne zusätzliche Telefongebühren. Und das bei Übertragungsraten von 768 Kilobit pro Sekunde für das Herunterladen und 128 Kilobit pro Sekunde für das Versenden von Daten. Also satte zwölfmal so schnell wie bei einem herkömmlichen ISDN-Anschluss. Für Telekom-Marketingvorstand Detlev Buchal ein schlicht unschlagbares Angebot". Das Kürzel DSL steht für "Digital Subscriber Line", zu deutsch "Digitale Teilnehmer-Leitung". DSL-Technologie ermöglicht die Ubertragung breitbandiger Datendienste auf herkömmlichen Telefon-Kupferkabeln. DSL-Zugänge ins Internet bieten nicht nur einen deutlich rascheren Seitenaufbau, sie leisten vor allem erstmals die Übermittlung von Bild- und Tondateien in befriedigender Qualität auf den PC. Mit DSL kann das strapazierte Schlagwort vom Internet-Fernsehen erstmals Realität werden. Zwar hält der Pink Panther schon seit Sommer 1999 unter dem Produktnamen T-DSV für Geschäfts- und Privatkunden auch einen Online-Hochgeschwindigkeitszug unter Dampf. Doch das Angebot stand nur in einigen Ballungsräumen zur Verfügung, schreckte den gemeinen Web-Nutzer durch allzu hohe Entgelte ab und lockte deshalb bisher nur rund 100 000 Interessenten hinter dem PC hervor. Mit der seit Monatsbeginn gültigen drastischen Preissenkung hat sich der Bonner Multimedia-Riese nicht weniger vorgenommen, als in den nächsten Jahren die breite Masse der bereits über 18 Millionen deutschen Internet-Nutzer in Highspeed-Surfer zu verwandeln.
Und das auf den Telefonstrippen der Deutschen Telekom, als Kunden des hauseigenen Internet-Dienstes T-Online. Unser Ziel ist ganz klar", verkündet Telekom-Manager Buchal: "Die Deutsche Telekom macht mit T-DSL aus dem Internet das schnelle Internet für jedermann". Um tatsächlich alle Welt mit den Hochgeschwindigkeits-Datennetz beglücken zu können, muss allerdings das Telefonnetz in den nächsten Monaten aufgerüstet werden. Bis Ende des Jahres soll der Web-Turbo bereits in rund 600 Ortsnetzen, bis Ende 2001 für 90 Prozent aller Haushalte zur Verfügung stehen. Ende 2000 wollen Buchal und Kollegen 500 000 DSL-Kunden gewonnen haben. Wichtigster Telekom-Kooperationspartner bei der Errichtung der anspruchsvollen DSL-Infrastruktur ist die Firma Siemens. Über die Investitionskosten des Vorhabens wahrt die Bonner Telekomzentrale Stillschweigen. Wer das neue DSI-Verfahren von T-Online nutzen will, kann das sowohl mit einem ISDN-Telefonanschluss als auch mit einer herkömmlichen Leitung. Alle momentan angebotenen ISDN-Tarife der Telekom, aber auch der "analoge" T-Net-Tarif - sind mit dem DSL-Pauschalpreis von 49 Mark kombinierbar Die notwendigen Zusatzgeräte (DSL-Modem und Splitter) werden von der Telekom zur Verfügung gestellt. Unternehmen wie die Hamburger TV-Produktionsfirma MME (Me, Myself & Eye) warten bereits sehnlichst auf eine stärkere Verbreitung von DSL-Anschlüssen. MME will auf speziellen Intemet-TV-Kanälen Pop-Konzerte und Musikvideos ausstrahlen. Für unser Geschäft sind breitbandige Internet-Zugänge zu günstigen Preisen absolut essentiell", betont Christoph Post, MME-Vorstand Neue Medien. Deshalb sind wir hocherfreut über die Aktivitäten der Telekom."
Weniger begeistert sind die Rivalen der Telekom beim Kampf um den Telefon- und Internetmarkt. Sie werden von der TarifOffensive kalt erwischt. Arcor-Mannesmann etwa dürfte mit dem gerade eingeführten Angebot von 79 Mark für einen 768-Kilobit-Zugang in Zwangs-Kombination mit einem Hochpreis-ISDN-Anschluss beim Kunden wenig Punkte sammeln. Online-Hauptkonkurrent AOL hat das Produkt DSL-Flatrate bislang überhaupt noch nicht auf dem Plan. Dabei könnte das hauseigene Intemet-TV-Angebot AOLlive durch den DSL-Turbo profitieren. Auch bei der Bertelsmann Broadband Group (BBG) ist man mit den DSL-Offerten der Telekom nicht zufrieden. Allerdings aus anderen Gründen. Das Hamburger Unternehmen möchte über Telefonund Kabelnetze interaktives Fernsehen in die Haushalte schicken. "Die Bandbreite ist das entscheidende Handicap", sagt Michael Schacht, Leiter Produktmanagement der BBG. Um unsere Angebote über DSL-Leitungen in guter Qualität auf einen Fernseher zu schicken, reichen 768 Kilobit nicht aus. Wir brauchen mindestens zwei Megabit." Helle Aufregung herrscht bei Deutschlands Kabelnetzbetreibern. Für eine "Kriegserklärung" an die Branche hält Dietmar Schickel, Geschäftsführer des Netzbetreibers Telecolumbus, das Vorgehen der Telekom. Telecolumbus bietet M Berlin einen Highspeed-Zugang zum Web über das TV-Netz an. 49 Mark sind ein quer subventionierter Dumpingpreis. Der Monopolist zeigt seine Krallen", schimpft Schickel. Hintergrund der Empörung: In den Businessplänen der KabelnetzUnternehmen steht die Vermarktung von Highspeed-Internet-Zugängen ganz oben. Sollte die Telekom mit ihrer DSL-Großoffensive in den nächsten zwei Jahren den Markt der Highspeed-Kunden abschöpfen, könnten sich die Milliardeninvestionen, die jetzt in die Modernisierung der Kabelnetze gesteckt werden, nicht mehr rechnen. "Das Tarifdumping" mahnt Schickel, "ist ein Fall für den Regulierer"."
-
Wortsuche im Millisekunden-Takt (2002)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 999) [ClassicSimilarity], result of:
0.029449934 = score(doc=999,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 999, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=999)
0.25 = coord(1/4)
- Content
- "Unsere Fähigkeit zu Sprechen beruht auf einem mehrstufigen Hochgeschwindigkeitsprozeß im Gehirn, belegen niederländische Max-Planck-Wissenschaftler Sprachproduktion ist das Ergebnis zweier sehr schnell ablaufender Vorgänge im Gehirn, dem Abruf geeigneter Einträge aus einem "mentalen Lexikon" sowie der Vorbereitung dieser "Einträge" für das eigentliche Sprechen, berichten Wissenschaftler vom Max-Planck-Institut für Psycholinguistik in Nijmegen/Niederlande. Jeder Mensch lernt Sprechen und das bedeutet vor allem: Wörter zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Erwachsener bereits bis zu 50 Millionen Wörter gesprochen. Es gibt kaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unterhaltung liegt die durchschnittliche Sprechgeschwindigkeit bei zwei bis vier Wörtern pro Sekunde. Die Wörter dazu werden fortlaufend aus unserem "mentalen Lexikon" abgerufen, das mehrere zehntausend "Einträge" enthält. Bei diesem Vorgang machen wir erstaunlich wenig Fehler (und sagen z.B. "links" statt "rechts"). Durchschnittlich passiert uns das nicht mehr als einmal pro Tausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachmechanismus organisiert? Wissenschaftler erklären die prachproduktion als ein System zweier aufeinanderfolgender Verarbeitungsschritte (s. Abb.). Im ersten Schritt erfolgt die Wortauswahl: Erhält das Gehirn einen bestimmten inhaltlichen Reiz, z.B. von den visuellen Zentren, wählt es einen dazu passenden lexikalischen Eintrag aus dem mentalen Lexikon. Der zweiten Schritt behandelt die Formenkodierung und berechnet die artikulatorischen Gesten, die für die Aussprache des Zielwortes benötigt werden. Es ist der Forschergruppe um Prof. Willem Levelt, Dr. Antje Meyer und Dr. Ardi Roelofs in langjähriger Teamarbeit gelungen, das Modell experimentell zu bestätigen; Dr. Roelofs konnte diese Theorie in einem umfassenden Computerprogramm mit dem Namen "WEAVER++" umsetzen. Ein wichtiges experimentelles Verfahren zur Erforschung des lexikalischen Zugriffs im Gehirn ist das Benennen von Bildern. Auf dem Monitor erscheint ein Bild, z.B. ein Pferd, das die Versuchsperson so schnell wie möglich benennen soll. Hierbei wird die Reaktionszeit, d.h. die Zeit zwischen dem Erscheinen des Bildes und dem Beginn des Sprechens exakt gemessen. Diese liegt normalerweise bei 600 Millisekunden (ms). Für die Auswahl und Aussprache eines Wortes brauchen wir also weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst erfolgt in zwei Teilstufen: Zuerst wird das Bild erkannt und ein Zielkonzept für die Benennungsaufgabe selektiert. Die Tests können so gesteuert werden, dass die Versuchspersonen entweder "Pferd", "Tier" oder "Hengst" auswählen, um das Bild zu benennen. In der zweiten Stufe, der so genannten "Lemma-Selektion", wird der hiermit übereinstimmende Eintrag gewählt, also z.B. nur "Pferd". Diesen Eintrag nennt man "Lemma", was soviel bedeutet wie "syntaktisches Wort", d.h. es enthält alle syntaktischen Eigenschaften wie Wortklasse (Substantiv, Verb usw.) und syntaktische Merkmale (wie Geschlecht bei Substantiven, transitive Beschaffenheit bei Verben). Diese Wortauswahl erfolgt in Konkurrenz zu anderen Wörtern. Die Max-Planck-Wissenschaftler konnten messen, daß semantisch verwandte Wörter, wie "Tier" oder "Hengst", bei diesem Schritt ebenfalls aktiviert werden.
Mit Hilfe der quantitativen Computertheorie wird die Reaktionszeit für eine Wortauswahl unter Konkurrenz vorausgesagt. Überprüft werden diese Voraussagen in spezifischen Bildbenennungsexperimenten: Dabei werden den Versuchspersonen beim Bildbenennen - visuell oder akustisch - andere Wörter präsentiert. Diesen Ablenkungsreiz müssen sie ignorieren. Ist beispielsweise "Pferd" das Zielwort, reagiert die Versuchsperson beim Hören des damit nicht verwandten Wortes "Stuhl" etwas langsamer. Hört die Versuchsperson jedoch das semantisch verwandte Wort "Kuh", wird eine viel stärkere Verzögerung gemessen, zusätzlich etwa 50 bis 100 Millisekunden (je nach Rahmenbedingungen). Diesen "semantischen Verzögerungseffekt" fanden die Max-Planck-Wissenschaftler in einer Vielzahl von Experimenten bestätigt. Der Zeitverlauf der Lemma-Selektion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologische Forschung in Leipzig mit Hilfe der Magnetenzephalographie (MEG) gemessen und bestätigt. Hierbei fanden die Max-Planck-Forscher außerdem heraus, dass bei der emma-Auswahl Regionen im linken lateralen temporalen Lobus aktiv sind. Nach der Lemma-Selektion erfolgt der zweite Schritt, die Wortformplanung oder Wortformen-Kodierung. Dazu muss zuerst der phonologische Code abgerufen werden, d.h. eine Reihe phonologischer "Segmente" oder "Phoneme", z.B. " p, f, e, r, d". Bei geläufigen Wörtern wird der phonologische Code schneller (bis zu 40 Millisekunden ) abgerufen als bei selten benutzten Wörtern. Bei der Bildbenennung kann der Zugriff dadurch erleichtert werden, dass der Versuchsperson zeitgleich phonologisch verwandte Wörter präsentiert werden. Versuchspersonen nennen "Pferd" schneller, wenn sie während der Bildanbietung das phonologisch verwandte Wort "Pfeil" hören, als das phonologisch unterschiedliche Wort "Stuhl". Auch den Zeitverlauf dieser phonologischen Suche konnten die Wissenschaftler mit dem Computermodell "WEAVER++" exakt voraussagen. Ist das Abrufen des Codes aus dem mentalen Lexikon abgeschlossen, erfolgt die Silbenbildung. Diese wird Phonem für Phonem zusammengestellt, aus "p, f, e, r, d" zum Beispiel wird /pfert/. Wird das Zielwort jedoch im Plural benötigt (z.B. wenn zwei ferde auf dem Bild zu sehen sind), werden nacheinander zwei Silben - /pfer/--/de/ - gebildet. Anders gesagt, ob die Silbe "/pfert/" oder "/pfer/" gebildet wird, ist situationsbedingt. Das schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekunden pro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reaktionszeit: Testpersonen brauchten beim Benennen für mehrsilbige Wörter länger als für einsilbige. Die letzte Stufe der Wortformen-Kodierung ist das phonetische Kodieren, das Abrufen eines artikulatorisch-motorischen Programms für jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an, daß dazu ein mentaler Silbenvorrat existiert, ein "Lager" an Gesten oder motorischen Programmen für häufig benutzte Silben. Die Vermutung liegt nahe, daß beim Speichern häufig gebrauchter Silben der prämotorische Cortex/die Broca Area beteiligt ist. Die faktische Ausführung der aufeinanderfolgenden Silbenprogramme vom laryngealen und supralaryngealen Artikulationssytem generiert letztendlich das gesprochene Wort."
-
Lischka, K.: US-Richter misstrauen Internet-Filtern : Jugendschutz contra freie Meinungsäußerung: In Amerika entscheidet wieder mal die Justiz über staatliche Vorgaben (2002)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 1456) [ClassicSimilarity], result of:
0.029449934 = score(doc=1456,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 1456, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1456)
0.25 = coord(1/4)
- Content
- "Was haben die finnische Botschaft in Rumänien, eine dänische Organisation gegen die Todesstrafe in den USA und die schottische Zeitung 'Aberdeen Independent" gemeinsam? Ihre Internet-Seiten gefährden jugendliche Nutzer mit pornografishen Inhalten. So sieht es zumindest das Filterprogramm "N2H2 Internet Filtering 2.0". Diese und 6.774 weitere zu Unrecht blockierte Seiten präsentiert die "American Civil Liberties Union (ACLU)" als Beweis in einem Prozess um den sog. Children's Internet Protection Act (CIPA). Verhandelt wird dabei eine Frage von internationaler Bedeutung: Ab wann gefährdet Jugendschutz im Internet die freie Meinungsäußerung? In Deutschland rückt die Filter-Problematik ins öffentliche Bewusstsein, seit die Düsseldorfer Bezirksregierung von Zugangs-Providern eine Blockade bestimmter Internet-Seiten fordert (siehe Netzwerk-Seite vom 12. März) - und dagegen Protest laut wird, wie am Wochenende mit einer Demonstration in der nordrheinwestfälischen Landeshauptstadt. ln den Vereinigten Staaten befassen sich Bürgerrechtsgruppen und Gerichte bereits seit Mitte der neunziger Jahre mit Online-Filtern. Zwei Gesetze, die Minderjährige vor Pornografie im Netz schützen sollten, haben US-Gerichte bereits für verfassungswidrig erklärt beziehungsweise wegen Verfassungsbedenken vorerst gestoppt: 1996 den "Connmunications Decency Act" und 1998 den "Child Online Protection Ast". ln beiden Fällen war das wesentliche Argument gegen Zwangsfilterung die lneffektivität der Programme. Da auch Internetseiten über Empfängnisverhütung, Aids, die Diskriminierung Homosexueller oder gar die Cartoonfigur Snoopy gesperrt wurden, sahen die Gerichte die vom ersten Verfassungszusatz garantierte Meinungsfreiheit gefährdet. Es scheint wahrscheinlich, dass deshalb auch der jetzt verhandelte "Children's Internet Protestion Act" keinen Bestand haben wird. Das lassen die Äußerungen der Richter während der Verhandlung erwarten. Ihr Urteil werden sie Anfang Mai verkünden. Anders als die beiden früheren Gesetze gehört der CIPA nicht zum Strafrecht. Das Gesetz sieht vor, dass vom Jahr 2003 an Bibliotheken nur dann mit Bundesgeld unterstützt werden, wenn sie minderjährige Surfer von jugendgefährdenden Seiten fern halten. Ob das allerdings möglich ist, zweifelt Harvey Bartle, einer der drei Richter, an: "Ich denke, jedermann würde mir zustimmen, dass wir wahrscheinlich nicht hier sitzen würden, wenn es eine Technologie gäbe, die einfach Obszönitäten, Kinderpornografie und jugendgefährdende Inhalte ausschließen könnte." Solche Filter existieren nicht. Arbeiten die Programme mit von Menschen erstellten Listen, blockieren sie nicht einmal annähernd genügend Seiten. Allerdings kann man gute Entscheidungen erwarten. Denn Menschen verstehen anders als Computer, dass Aufklärungsangebote über Empfängnisverhütung durchaus für Minderjährige zugänglich sein sollten. Freilich sind schon solche Einsätzungen in den Vereinigten Staaten umstritten, wo es unterschiedliche Ansichten etwa über die Zulässigkeit von vorehelichem Sex gibt: Gerade deshalb ist das Schwelgen der meisten Hersteller von Filtersoftware übenden Inhalt ihrer Listen, deren Zustandekommen und die zu Grunde liegenden Wertvorstellungen beängstigend. Richter Bartle fragte einen als Zeugen geladenen Bibliothekar, der Filterprogramme einsetzt: "Sie delegieren die Verantwortung an ein außenstehendes Unternehmen? Wie kontrollieren sie, was der Hersteller der Filtersoftware tut?" Andere Filter arbeiten mit automatischer Texterkennnng. Die genaue Arbeitsweise halten die Produzenten geheim, allerdings dürfte die Suche nach Reizworten dabei eine bedeutende Rollenspielen. Damit ist wohl zu erklären, dass das Programm Cyberpatrol die Internet-Seite zum Buch "Peepshow: Media and Politics in an Age of Scandal" vier angesehener Publizisten blockiert hat. Der Sprachwissenschaftler Geoffrey Nunberg sagte vor Gerietet, eine präzise Analyse des Sinnzusammenhangs liege "weit jenseits der Möglichkeiten heutiger Technologie".
Bei der Entscheidung des Gerichts dürfte es kaum bedeutend sein, wie hoch der Anteil zu Unrecht blockierter Seiten ist. Als der Anwalt des Justizministeriums vor Gericht argumentierte, der liege bei nur sechs Prozent, entgegnete der vorsit-zende Richter Edward Becker: "Und wie hoch ist der absolute Anteil geschützter freier Meinungsäußerung in diesen sechs Prozent? Wir reden hier über vielleicht Zehntausende von Seiten." Auf die Entscheidung des Gerichts - es ist im Gesetz als erste Instanz für juristische Auseinandersetzungen vorgesehen - wird in jedem Fall eine Berufung vor dem Obersten Gerichtshof folgen. Die haben sowohl die ACLU als auch das Justizministerium angekündigt. Ob das Gesetz für verfassungswidrig erklärt wird, ist weniger sicher wie bei den zwei Vorgängern, da es den Einsatz von Filterprogrammen nicht zwingend vorschreibt, sondern lediglich zur Voraussetzung für finanzielle Unterstützung macht. Auf das Geld sind allerdings viele der 40 000 US-Bibliotheken angewiesen. Die Entscheidung, ob der CIPA mit der US-Verfassung zu vereinbaren ist, wird jedoch die zentrale Frage nicht beantworten: Wie kann Jugendschutz im Internet garantiert werden, ohne in Zensur umzuschlagen? Zahlreiche Lösungsvorschläge hat schon vor zwei Jahren die vom USKongress berufene COPA-Rommission gemacht. In ihrem Bericht sind Filterprogramme lediglich ein - keineswegs zentrales - Instrument. Die Information der Eltern sollte an erster, Stelle stehen, da keine Technologie perfekt ist. Wenn Eltern sich nicht mit den Interessen und Internet-Sitzungen ihrer Rinder beschäftigen, nützen Filterprogramme wenig. Die Kommission schlug auch zahlreiche technische Lösungen vor: Ein Selbstklassifizierungssystem für Anbieter von Internet-Inhalten beispielsweise, die Einfüh-rung neuer Top-Level-Domains wie .xxx und .kids, die Verbreitung von Verfahren zur Altersprüfung, die Schaffung von Kommissionen, die Inhalte empfehlen und damit so genannte Greenspaces für Kinder schaffen. Seit Jahren stehen diese Ideen im Raum. Statt sie zu diskutieren, wähnt . man sich - nicht nur in den Vereinigten Staaten - in der falschen Sicherheit der Filterprogramme."
-
Ellis, R.; Hindersmann, J.: Volltext- und Katalogverlinkungen in Online-Datenbanken (2003)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 2486) [ClassicSimilarity], result of:
0.029449934 = score(doc=2486,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 2486, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2486)
0.25 = coord(1/4)
- Abstract
- Die digitale Bibliothek, in der alles mit allem verlinkt ist, und man mit wenigen Klicks zur gewünschten Information gelangt, ist nach wie vor ein Traum vieler Bibliothekare und Benutzer. In der Realität aber existieren heterogene Informationssysteme nebeneinander: Online-Datenbanken, Aggregatordatenbanken, A&I-Datenbanken, Plattformen für E-Journals, OPACs. Zwischen diesen verschiedenen Systemen muss der Nutzer nun hin- und herschalten, um die gewünschte Information zu erhalten. Dass eine Verlinkung der verschiedenen elektronischen Ressourcen der Bibliothek ein Desiderat ist, hat inzwischen auch die Industrie erkannt. Es sind bereits erste Systeme auf dem Markt, die eine Navigation in heterogenen Informationsquellen ermöglichen. Zu nennen ist hier in erster Linie ExLibris SFX. Auch EBSCO hat mit LinkSource eine auf openURL basierte Lösung vorgelegt, um alle verfügbaren Quellen in eine Suchanfrage einzubinden. Diese Systeme sind prinzipiell sehr vielversprechend und von der Bibliothek sehr komfortabel zu managen, bewegen sich aber derzeit in einem preislichen Rahmen, der von den wenigsten Bibliotheken noch zusätzlich zu den ohnehin schon hohen Kosten für elektronische Ressourcen aufgebracht werden kann. An der UB Osnabrück und SuUB Bremen wurden daher Überlegungen angestellt, wie man ohne diese kostenpflichtigen Zusatzdienste die verschiedenen elektronischen Angebote der Bibliothek besser miteinander verknüpfen könnte. Konkret lautete die Fragestellung so: "Wie komme ich nach einer Recherche in einer bibliografischen Online-Datenbank zum Volltext?" Die meisten OnlineDatenbanken sind immer noch rein bibliografische Datenbanken, die allerhöchstens ein Abstract anbieten (A&I-Datenbanken). Erscheint ein Rechercheergebnis dem Benutzer so interessant, dass er gern den Volltext des betreffenden Artikels oder des Buches einsehen möchte, so hat er dazu mehrere Möglichkeiten: Die einfachste Möglichkeit liegt darin, den Volltext in elektronischer Form aufzurufen. Besteht diese Möglichkeit nicht, so muss er im OPAC recherchieren, ob der gesuchte Titel zumindest in gedruckter Version in der Bibliothek vorhanden ist. Ist dies nicht der Fall, so hat er die Möglichkeit, den Titel per Fernleihe oder document delivery zu bestellen. Diese drei Schritte - Aufrufen des Volltextes, Recherche im OPAC, Fernleihbestellung - sollten für den Benutzer dadurch vereinfacht werden, dass ent sprechende Links in die Online-Datenbanken integriert werden. So kann das aufwändige "kopieren und einfügen"- Verfahren entfallen. Die Einrichtung dieser verschiedenen Links brachte administrative, technische und lizenzrechtliche Probleme mit sich. Online-Datenbanken werden von verschiedenen Anbietern auf den Markt gebracht: von international agierenden Firmen bis hin zu kleinen Körperschaften. Es musste bei jedem Anbieter geklärt werden, welche Verlinkungen technisch und lizenzrechtlich möglich sind. Links zum elektronischen Volltext sind für den Nutzer sicherlich die ideale Lösung, denn so kann er vom Büro oder CIP-Pool aus den Artikel lesen bzw. ausdrucken, ohne in die Bibliothek gehen und dort nach der Print-Ausgabe suchen zu müssen. Bei Volltextlinks muss man zwischen zwei Arten von Links unterscheiden: Institutionsunabhängige Links sind zentral für alle Abonnenten der Online-Datenbank eingerichtet und werden immer angezeigt, unabhängig davon, ob die Bibliothek einen lizenzierten Volltextzugriff auf die betreffende elektronische Ressource hat. Institutionsabhängige Links sind nur für die elektronischen Ressourcen eingerichtet, für die die Bibliothek einen lizenzierten Zugang besitzt.
-
Seckel, A.: Optische Illusionen (2004)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 3168) [ClassicSimilarity], result of:
0.029449934 = score(doc=3168,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 3168, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3168)
0.25 = coord(1/4)
- Abstract
- Für uns alle ist Sehen selbstverständlich. Es benötigt wenig Anstrengung. Doch das Sehen von Bildern, Objekten, Tiefen und Bewegung ist ein komplexer Prozess. Erst im letzten Jahrhundert bzw. den letzten 2O Jahren konnten Wissenschafter Fortschritte im Verstehen von Sehvermögen und Wahrnehmung erzielen. Nehmen Sie sich kurz Zeit und beobachten Sie die Welt um sich. Wenn Sie etwa den Kopf neigen, neigt sich da nicht auch die WeIt? Wenn Sie ein Auge schließen, verringert das nicht Ihre Tiefenwahrnehmung? Beachten Sie, was mit Farbe passiert, wenn Sie unterschiedlich beleuchtet wird. Gehen Sie um ein Objekt herum: Die Form verändert sich, doch die Wahrnehmung bleibt die gleiche. "Dahinterkommen" ist ein wirklich wunderbarer Vorgang. Hauptsächlich spielt sich dieser jedoch im Gehirn ab und nicht in ihrem Auge! Lichtwellen gelangen in die Augen und dringen in die fotorezeptiven Zellen der Netzhaut ein. Die Bilder, die so auf Ihrer Netzhaut entstehen, seien diese nun zwei- oder dreidimensional, werden zu flachen Darstellungen auf einer gewölbten Oberfläche. Diese bewirken eine natürliche Doppeldeutigkeit der Bilder, die auf Ihre Netzhaut gelangen. Für jedes Bild auf der Netzhaut gibt es unendlich viele Möglichkeiten für dreidimensionale Situationen, die genau dieses gleiche Bild verursachen können. Ihr Auge jedoch entscheidet sich gewöhnlich für die korrekte Interpretation. Genau das tut Ihr Gehirn: Es interpretiert! Es gibt einige sehr starke Einschränkungen, wie es dazu kommt. Außerdem muss Ihr Sehapparat die "Antwort" schnell finden. Alles in allem funktionieren diese Einschränkungen. In der realen WeIt sehen Sie nicht viele Illusionen, da Ihr Sehsystem viele Möglichkeiten kennt, Mehrdeutigkeiten auszuschließen. Viele dieser Möglichkeiten stützen sich auf die Regelmäßigkeiten der Welt, in der wir leben. Visuelle Wahrnehmung ist auf jeden Fall ein Prozess, der Mehrdeutigkeiten ausschließt. Doch Fehler können auch hier passieren. Zu Zeiten kommt es zu Illusionen, wenn das Bild, das wir aufnehmen, nicht genügend Information besitzt, um Mehrdeutigkeit auszuschließen. Es fehlen etwa wichtige Hinweise, die in der realen WeIt existieren und Mehrdeutigkeit ausschließen könnten.
Andere Illusionen entstehen, wenn ein Bild eine Einschränkung verletzt, die auf einer Regelmäßigkeit unserer WeIt basiert. Andere Illusionen treten auf, weil zwei oder mehrere Einschränkungen miteinander in Konflikt stehen. Dies bedeutet, dass unser Auge das Geschehen auf mehrere Arten interpretieren kann. Obwohl das Bild auf Ihrer Netzhaut unverändert bleibt, sehen Sie nie eine Vermischung der beiden Wahrnehmungen, obwohl die beiden Interpretationen zwischen diesen hin- und hergerissen sind. So sind Illusionen sehr nützliche Werkzeuge für Wissenschafter. Sie können die verborgenen Einschränkungen des Sehsystems in einer Weise sichtbar machen, die das normale Sehvermögen nicht schafft. Viele Illusionen in diesem Buch werden Ihre Wahrnehmung wiederholt zum Narren halten, auch wenn Sie wissen, dass Sie hinters Licht geführt werden. Dies geschieht, weil es für Ihren Sehapparat wichtiger ist, seine Einschränkungen zu befolgen als sie zu verletzen, aus dem einfachen Grund, dass Sie auf etwas gestoßen sind, das ungewöhnlich, widersprüchlich oder paradox ist. Die Illusionen sind willkürlich in vier Galerien eingeteilt. Viele sind nicht allgemein bekannt, da sie ihren Ursprung in der Forschung haben. Es werden auch klassische Illusionen angeführt, wobei wir jedoch meist deren Effekt verstärkt bzw. gesteigert haben. Ich habe versucht, wissenschaftliche Erklärungen für die Illusionen zu liefern. Diese sind am Ende jeder Galerie angeführt. In vielen Fällen wissen wir jedoch heute noch keine Antwort. Dies trifft vor allem auf geometrische Illusionen wie etwa die Poggendorf-Illusion oder die Muller-Lyer-Illusion zu. Darum möchte ich betonen, dass die Erklärungen nicht auf allgemeine Gültigkeit plädieren, sondern durchaus skeptisch betrachtet werden sollen. Die Erforschung des Auges ist eines der aufregendsten Gebiete der Wissenschaft und das Studium von visuellen Illusionen bereitet große Freude. Ich hoffe, dass dieses Buch Jung und Alt überraschen und erfreuen wird und es auch zum Nachdenken über das wundersamste Mysterium dieses Universums anregt - dem menschlichen Gehirn.
-
Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
0.029449934 = score(doc=4578,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 4578, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4578)
0.25 = coord(1/4)
- Abstract
- Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
- Content
- INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
- Series
- Sprache, Sprechen und Computer. Bd. 8
-
Müller-Wolf, K.: (Alb-)Traum der virtuellen Bücherwelt : Internet-Unternehmen Google möchte weltumspannende digitale Bibliothek schaffen (2005)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 5318) [ClassicSimilarity], result of:
0.029449934 = score(doc=5318,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 5318, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=5318)
0.25 = coord(1/4)
- Abstract
- Digitale Weltbibliothek - Das Internet-Suchmaschinen-Unternehmen Google möchte einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen erstellen. Autoren und Verleger in den USA sehen durch die Digitalisierung von Bibliotheksbeständen aber massiv ihre Urheberrechte verletzt
- Content
- "Das gesamte Wissen der Welt, das in honorigen Bibliotheken rund um den Globus gehütet wird, ist nur einen Maus-Klick entfernt. Google, das führende Internet-Suchmaschinen-Unternehmen aus den Vereinigten Staaten, möchte den Traum einer universellen Bibliothek verwirklichen. Aber für Autoren und Verlage stellt sich das Vorhaben eher als Albtraum dar. Sie sehen Urheberrechte und ihre Pfründe in Gefahr. Googles neuer Geschäftszweig "Print" ist unterteilt in ein Verlagsprogramm, bei dem Bücher von Verlagen gezielt beworben werden können, und das umstrittene Bibliotheksprogramm. Das Unternehmen möchte 15 Millionen Bücher aus den Beständen der renommierten Universitätsbibliotheken Harvard, Stanford, Oxford, Michigan und der öffentlichen Bibliothek New Yorks über den Index seiner Suchmaschine teilweise verfügbar machen. Seit Dezember läuft die Testphase von "Google Print". Benutzer können online nach einem bestimmten Buchtitel oder Begriff suchen. Google stellt bei Übereinstimmungen mit dem Suchbegriff eine Verknüpfung zu diesem Buch her. Öffentlich zugängliche Bücher, die nicht mehr urheberrechtlich geschützt sind, können vollständig, alle anderen nur auf maximal drei Seiten eingesehen werden. Google verweist auf bibliografische Daten, auf Bibliotheken, in den das Buch ausgeliehen oder einen Online-Buchhändler, bei dem es gekauft werden kann. Glaubt man dem Unternehmen, dann verfolgt es mit dem Bibliotheksprojekt nur hehre Ziele: Bei der Suche nach Büchern zu helfen, die woanders nicht zu finden sind und langfristig mit Autoren und Verlegern einen umfassenden, virtuellen Katalog aller Bücher aller Sprachen zu erstellen. Autoren, aber auch Verleger haben an dieser, Version erhebliche Zweifel. "Authors Guild", eine Vereinigung amerikanischer Autoren, hat im September beim Bezirksgericht Manhattan Klage eingereicht. Mit der Übernahme eines Buches in eine Bibilothek werde dieses nicht zum Teil eines Allgemeinguts. Die Erstellung von elektronischen Kopien bedeute eine massive und fortgesetzte Urheberrechtsverletzung. Auch der Amerikanische, Verband der Buchverlege, die "Association of American Publishers" hat sich der Klage angeschlossen. ,Google verletze die Urheberrechte der Verlage, um seine eigenen kommerziellen Interessen voranzutreiben. In der Buchbranche wird nämlich vermutet, dass Google langfristig selbst in den Buchhandel einsteigen könnte, wie Daniel Lenz, Redakteur des "buchreports" sagt. Leidtragende der neuen Entwicklung sei der stationäre Buchhandel, dem langfristig die Kunden fehlen würden.
Wegen der Klagen in USA ruhen die Scan-Aktivitäten von Google in den Bibliotheken. Bis November werde man keine Bücher digitalisieren, für die noch Urheberrechte bestehen, teilte das Unternehmen mit. Im Übrigen könnten Interessenten nur einige Seiten des Buches einsehen. Sämtliche Kopier-, Speicherund Druckfunktionen seien deaktiviert. In der Branche ist man dennoch skeptisch: Bei Reiseführern, Sachbüchern oder Lexika seien solche Detailinfos schon ausreichend. In Europa geht nach den Worten von Jean-Noel Jeanneney, dem Präsidenten der französischen Nationalbibliothek, die Angst vor einer Monopolisierung der digitalen Information in den Händen eines kommerziellen amerikanischen Unternehmens um. Wobei Jeanneney bei der Frankfurter Buchmesse die Digitalisierung von Büchern generell einen wichtigen Schritt nannte. Und so gibt es seit diesem Jahr in der Europäischen Union Bestrebungen, eine Alternative zum Bibliotheksprogramm von "Google Print" auf den Weg zu bringen. "Quaero" lautet der Titel des Projekts, mit dem europäisches Schriftgut in den jeweiligen Landessprachen online zur Verfügung gestellt werden soll. Insider räumen Quaero nur geringe Chancen ein. Die öffentlichen Mittel seien zu bescheiden, als dass sie gegen das Kapital von Google, das in sein Printprojekt 200 Millionen Dollar investiere, etwas ausrichten könnten. Der Börsenverein des Deutschen Buchhandels hat längst eine eigene Taskforce Volltext" einberufen, die an einer brancheneigenen Lösung für den deutschsprachigen Raum feilt. Die Verlage möchten die Hoheit über das Urheberrecht und die Buchinhalte behalten, indem die Daten auf dem eigenen Server verbleiben und nur über Links der Suchmaschine verfügbar gemacht werden. Auf dem Sektor tummelt sich seit fünf Jahren bereits ein deutsches Unternehmen. Die Berliner Midvox GmbH führt den elektronischen Katalog Innensuche" mit derzeit 70.000 deutschsprachigen Fachbüchern, der über Webseiten von Online-Händlern genutzt werden kann. Er dient nur der Orientierung. In den Büchern kann nicht geblättert werden. Das geistige Eigentum der Autoren bleibt geschützt."