Search (4749 results, page 191 of 238)

  • × year_i:[2000 TO 2010}
  1. Sixtus, M.: Falsche Türen : Google kämpft gegen Tricks, mit denen sich Webseiten in den Suchlisten nach oben drängeln - und bestraft BMW (2006) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 5917) [ClassicSimilarity], result of:
          0.032253996 = score(doc=5917,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 5917, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5917)
      0.25 = coord(1/4)
    
    Content
    ""Das Suchen hat einen religiösen Charakter angenommen. Die Leute wollen gar nicht mehr finden, sie wollen suchen", sinnierte kürzlich der Netzpionier und Schriftsteller Peter Glaser. Vielleicht bleibt den Menschen nichts anderes übrig als eine Recherche ähnlich wie eine buddhistische Meditation anzugehen. Denn, dass sie finden, was sie suchen, wird immer weniger wahrscheinlich. "Deutschland ist momentan sicher das Spam-Land Nummer eins", bestätigt Stefan Keuchel, nationaler Sprecher von Google. Er meint damit nicht die Massenmails, die für raubkopierte Software und Genitalvergrößerungen werben, sondern SuchmaschinenSpam: Webseiten, die es nur gibt, um weit oben in den Trefferlisten aufzutauchen. Wer eine Suchmaschine nach Test- oder Erfahrungsberichten zu einem bestimmten Produkt bemüht, kennt das: Auf den ersten Seiten tummeln sich Preisvergleichsdienste, ominöse Branchenverzeichnisse, oder man wird ungefragt auf eine Internetauktion umgeleitet. Oft genug haben die Seiten nichts mit der Suchanfrage zu tun. Diese Form der Bauernfängerei ist ärgerlich und zeitraubend für die Nutzer einer Suchmaschine - und gefährlich für ihre Betreiber. Mit der sinkenden Qualität der Ergebnisse verlieren sie Vertrauen - und Werbekunden. BMW wollte mit dutzendfachen Wortwiederholungen täuschen Zwar ändern Google, Yahoo und die anderen ständig ihre Bewertungen, um die falschen Treffer zu verdammen. Allerdings beschränkten sie sich dabei bislang auf ihren englischsprachigen Heimatmarkt. Das soll sich nun ändern. Vor rund drei Wochen gab Software-Ingenieur Matt Cutts, bei Google für die Qualität der Suchergebnisse zuständig, in seinem Weblog bekannt, man wolle sich verstärkt dem nicht-englischsprachigen Internet widmen. Das erste prominente Opfer: BMW. Die Hauptadresse des bayerischen Autobauers www.bmw.de war in dieser Woche bei Google zeitweise nicht zu finden. Mittlerweile taucht sie dort wieder auf. Die Höchststrafe fing sich BMW ein, weil das Unternehmen mit Brückenseiten arbeitete. Das sind Phantomseiten, die mit dutzendfachen Wiederholungen von Worten wie Gebrauchtwagen, Neuwagen, Jahreswagen und natürlich BMW die Suchmaschinenroboter füttern sollen. Menschliche Internetnutzer sehen die Wörtersuppe nicht, sie werden automatisch auf eine andere Seite gelenkt. "Das ist einklarer Verstoß gegen unsere Richtlinien% sagt Google-Sprecher Keuchel. Auch BMW habe Regeln für seine Zulieferer. Naturgemäß sieht das München anders. Zwar gesteht Sprecher Markus Sagemann die umstrittenen Trickseiten ein, aber: "Wir haben den Leuten keine falschen Inhalte vorgespiegelt. Wer auf BMW-Gebrauchtwagen geklickt hat, ist auch dort gelandet." Und man solle das Thema bitte nicht groß reden: "Über Google kommen gerade einmal 0,4 Prozent unserer Besucher."
    Der Experte Philipp Lenssen hatte in seinem Weblog Anfang Februar als erster über die BMW-Praktiken berichtet. Er wundert sich: "Wenn wirklich nur so wenige Besucher via Google bei BMW landen, warum legen die dann Hunderte von Köder-Seiten aus?" Auch die Argumentation, man habe keine falschen Inhalte vorgespiegelt, hält er für verfehlt: "Welche Seiten für einen Suchbegriff relevant sind und welche nicht, bestimmt aus gutem Grund die Suchmaschine und nicht der Seitenbetreiber." Der empfinde seine Seiten stets als relevant. Einige Google-Fänger seien auf Begriffe wie BMW-Testberichte optimiert worden. "Da erwartet man doch eher, auf einer Seite neutraler Herkunft zu landen als direkt beim Hersteller." Allerdings ist es eher unwahrscheinlich, dass der Autobauer mit Methoden aus den virtuellen Rotlicht- und Spielbank-Vierteln auf Kundenfang gehen wollten. Der Griff in die Kiste der dunklen Tricks war eher eine unüberlegte Notlösung, denn zuvor waren große Teile der BMW-Seite überhaupt nicht in Suchmaschinen zu finden. Das wundert Lenssen nicht: "Die Navigation funktioniert nur mit eingeschaltetem Javascript, außerdem besteht die komplette Websites aus ineinander verschachtelten Frames", also Fenstern. Genauso gut hätte man ein "Für Suchmaschinen verboten!" auf die Site kleben können. "Die Seiten sollten einfach wieder bei einer Suche auftauchen", versucht sich BMW zu erklären. Das Sichtbarmachen der versteckten Inhalte sollte das Frankfurter Unternehmen Netbooster übernehmen. Vielleicht nicht die beste Wahl: Die Hauptadresse des Unternehmens fehlt bei Google ebenfalls. In Frankreich war die Firma bereits vor zwei Jahren negativ aufgefallen. Netbooster verweigert eine Stellungnahme. BMW scheint Opfer des Stan-Laurell-Syndroms geworden zu sein: dem Versuch, einen Fehler mit einem weiteren zu vertuschen. Die Unbeholfenheit im Umgang mit dem Internet verwundert Google-Sprecher Keuchel nicht: "Gerade die großen deutschen Unternehmen achten meist nur auf Design und Erscheinungsbild ihrer Seiten." Viele Manager verstünden nicht, wie das Netz und die Suchmaschinen funktionieren. "Und dann wundern sie sich, dass sie nicht zu finden sind", sagt Keuchel. Die Debatte könnte einem anderen Thema Auftrieb geben: barrierefreiem Webdesign. Als Faustregel gilt: Wer seine Seiten so gestaltet, dass sie ohne Zusatzprogramme oder Spezialfunktionen wie Javascript lesbar sind, macht es Suchmaschinen leicht, sie zu finden. Auch sonst könnte die Unstimmigkeit zwischen Google und BMW für ein reinigendes Gewitter sorgen. Viele Fachleute glauben, Suchmaschinen-Spammer würden aus Furcht vor dem drohenden GoogleBann nun ihre vorgeschalteten Seiten einsammeln. Dann könnte Suchen vielleicht wieder etwas mehr mit finden zu tun haben und etwas weniger mit Religion."
    Footnote
    BESSER SUCHEN - Alternativen nutzen: Auch die Konkurrenz von Google ist nicht schlecht. Klassiker sind search.msn.de und search.yahoo.de. Neu auf dem deutschen Markt ist ask.de. Das Unternehmen hat sich mit der Übernahme des vielversprechenden NewcomersTeoma frisches Fachwissen geholt. - Genauerformulieren: Liefert eine erste Anfrage zu viele irrelevante Treffer, lohnt sich ein Wechsel in den erweiterten Modus (bei Google und Yahoo: "erweiterte Suche", MSN: "Such-Assistent"). So kann man die Ergebnisse auf bestimmte Sprachen oder Länder eingrenzen. Wunder wirkt es oft, einzelne Worte (etwa "Auktion") aus der Trefferliste zu verbannen. Man kann auch bestimmte Domains aussieben. Das ist besonders hilfreich, wenn Suchmaschinen-Spammer mit Subdomains arbeiten, etwa mit shop.domain.de, kaufen.domain.de, sparen.domain.de.
  2. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
          0.032253996 = score(doc=1727,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 1727, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."
  3. Moll, S.: Jeden Morgen in Rage : Radikaler linker Kritiker, legendärer Linguist: Noam Chomsky wird heute 80 Jahre alt (2008) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 3465) [ClassicSimilarity], result of:
          0.032253996 = score(doc=3465,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 3465, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3465)
      0.25 = coord(1/4)
    
    Content
    "Es wird wohl kein Mangel an Feierstunden rund um die Welt sein, wenn Noam Chomsky an diesem Samstag 80 Jahre alt wird. Selbst unter seinen Kritikern herrscht hinsichtlich Chomskys Bedeutung als einer der wichtigsten Denker und einflussreichsten Intellektuellen der vergangenen 50 Jahre weitgehende Einigkeit. Chomsky selbst wird bei all dem Aufhebens um seine Person allerdings vermutlich nicht in Erscheinung treten. Stattdessen wird er mit seiner Familie zuhause in Lexington, einem Vorort von Boston, verbringen und sich gemeinsam mit seinen drei Kindern um seine Frau Carol kümmern. Carol Chomsky befindet sich, wie Chomskys langjährige Assistentin Bev Stohl mitteilt, in einem äußerst kritischen Zustand. Selbst seine geliebten Donnerstagsvorlesungen zur Politik am Massachusetts Institute of Technology, wo er seit 1955 unterrichtet, hat Chomsky abgesagt - ein untrügliches Zeichen. Chomsky ist seit Jahrzehnten unermüdlich unterwegs, hält Vorlesungen rund um die Welt, tritt für politische Kampagnen ein, an so unterschiedlichen Orten wie der Türkei, der Schweiz und Indonesien, spricht ausführlich mit jedem Reporter, der bei ihm anruft und schreibt zudem ein Buch nach dem anderen. 35 Bücher in 43 Jahren. Vor vier Jahren erlitt Chomsky wegen dieser rastlosen Aktivitäten einen Nervenzusammenbruch. Carol versuchte ihn danach einzubremsen - vergeblich.
    Stachel im Fleisch Im kommenden Jahr sind Carol und Noam Chomsky 60 Jahre lang verheiratet. Ohne sie hätte es gewiss den Wissenschaftler, der die Linguistik revolutionierte, ebenso wenig gegeben, wie den politischen Aktivisten, der seit dem Vietnam-Krieg ein beharrlicher Dorn im Fleisch der Mächtigen ist. Die Chomskys sind eine Einheit, die Krankheit seiner Frau ist für Chomsky verheerend. Das ginge nach einer solch langen Zeit gewiss jedem Ehemann so, Noam Chomsky trifft es jedoch besonders hart. Chomsky besitzt, wie seine Frau ihm bescheinigt, eine außergewöhnliche Fähigkeit zum Mitleiden. Gegenüber der Zeitschrift New Yorker beschrieb Carol Chomsky einmal eindrücklich, wie tief Chomsky jeder einzelne sinnlose Tod auf der Welt berührt, wie er sich über jede Ungerechtigkeit, von der er in der Zeitung liest, echauffiert. "Er steigert sich jeden morgen in eine Rage", berichtete Carol Chomsky. Es ist sehr wahrscheinlich, dass diese Unfähigkeit, das Unheil dieser Welt auszublenden, der Antrieb für Chomskys Karriere als beißender Kritiker des amerikanischen Imperialismus und Kapitalismus war und ist. 1967 schrieb Chomsky mit "American Power" sein erstes politisches Buch - ein flammender Protest gegen den Vietnam-Krieg, aber auch ein Manifest für die Pflicht des Intellektuellen, die Mächtigen zur Rechenschaft zu ziehen. Das Buch machte ihn zu einer Identifikations-Figur der amerikanischen Linken. Die Stellung als linker Vordenker hielt allerdings nicht lange an. In dem Maße wie in den USA linkes Denken aus der Mode geriet, wurde Chomsky an die Ränder des politischen Diskurses gedrängt. Immer mehr wurde Chomsky während der Reagan-Ära mit seiner anarchistischen Haltung zum Außenseiter. Nach dem 11. September 2001 ließen ihn dann sogar linke Gesinnungsgenossen wie Christopher Hitchens im Stich, weil Chomsky sich angeblich auf die Seite des "Islamo-Faschismus" geschlagen habe. Dabei tat Chomsky nichts anderes, als das, was er schon immer getan hatte - nämlich die skrupellose Interessenpolitik der USA im Nahen Osten anzuprangern. Das passte nun jedoch so gar nicht mehr in den Zeitgeist. Nicht einmal die Wahl von Barack Obama änderte etwas an Chomskys Außenseiter-Stellung. Im Gegenteil. Chomsky kann der allgemeinen Begeisterung für den neuen Präsident nicht folgen und stellt sich damit noch weiter außerhalb des politischen Mainstream, als er ohnehin schon gestanden hatte. In seiner bislang letzten Vorlesung am 24. November, denunzierte er Obamas Sieg als vorhersehbaren Triumph des Geldes und der Lobbyisten und demaskierte Obamas Slogans von Hoffnung und Wandel als Konstrukte von ausgefuchsten Marketingstrategen, die wahre Demokratie mit ihren perfiden Tricks geschickt zu verhindern wüssten. In Wirklichkeit, so Chomsky, unterscheide sich Obama nicht im Geringsten von seinem Gegner oder von irgendwem sonst im Polit-Establishment. Obamas Berater seien genauso korrupt wie die seines Vorgängers und seine außenpolitischen Positionen, etwa was Afghanistan oder Pakistan angeht, nicht weniger imperialistisch und gefährlich.
    Dies bestimmte Temperament Hinter dieser Haltung steht die selbe rationalistische Disposition, die seinem Werk als Linguist zu Grunde liegt. Oft wird von zwei Noam Chomskys gesprochen - dem kühlen Wissenschaftler und dem heißblütigen, zornigen politischen Denker. Eine solche Charakterisierung verkennt jedoch, dass beiden Aspekten von Chomskys Geistesleben ein ähnlicher Denk-Habitus zugrunde. Es ist jene Mischung aus Skepsis, Idealismus und intellektueller Rigorosität, der Chomsky unter den linken jüdischen Intellektuellen im New York der 50er Jahre begegnet war: Martin Buber gehörte dazu, Hannah Arendt, Erich Fromm, eine junge Susan Sonntag. Es war ein Klima intellektueller und politischer Dringlichkeit, des Glaubens an die Macht des Geistes sowie radikaler Aufgeklärtheit. Auch Chomskys linguistische Revolution trug deutliche Spuren dieses Temperaments. Das vorherrschende Paradigma der taxonomischen, anthropologischen Linguistik stellte Chomsky nicht zufrieden. Chomsky mochte sich nicht damit begnügen, die Dinge zu beschreiben, er mochte die Suche nach dem Universellen nicht so einfach aufgeben. Empirie, wie sie die Bloomfield-Linguisten praktizierten, war nicht nach seinem Geschmack. So verlegte er mit seiner "Generativen Transformationsgrammatik" die Wahrheit der Sprache zurück in das Innere und erklärte dieses erneut für intelligibel. Carol Chomsky fasste die Weltanschauung ihres Mannes, die ihn sowohl zu dieser epistemologischen Revolte als auch zu seiner sturen politischen Renitenz trieb, einmal so: "Noam möchte, dass die Welt, wie sie ist, verschwindet. Er möchte, dass sie perfekt ist und seiner Einmischung nicht bedarf." Dass das nicht so ist und dass sich Chomsky dazu gezwungen sieht, unermüdlich zu intervenieren, nimmt er als sein Los hin. Spaß, so Carol Chomsky, mache ihm das nicht."
  4. McCorduck, P.: Machines who think : a personal inquiry into the history and prospects of artificial intelligence (2004) 0.01
    0.008063499 = product of:
      0.032253996 = sum of:
        0.032253996 = weight(_text_:und in 335) [ClassicSimilarity], result of:
          0.032253996 = score(doc=335,freq=38.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26703218 = fieldWeight in 335, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=335)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in. Spektrum der Wissenschaft. 2005, H.4, S.106-108 (A. Leßmöllmann): "Bereits im Titel steckt Stoff für ein paar grüblerische Nachmittage: »Maschinen, die denken«, provokant mit dem englischen Relativpronomen »who« formuliert, das doch für Belebtes, sogar Vernunftbegabtes reserviert ist. Denken Maschinen denn? Ja, sagt Pamela McCorduck in ihrer Nacherzählung der Geschichte der künstlichen Intelligenz (KI). Fußball spielende Roboter, Schach spielende Computerprogramme, »Such-Bots«, die auf kluge Weise Datenbanken durchstöbern - das sind alles Denker. Allerdings nutzen sie ihre künstlichen Hirne auf eigene Art. Maschinendenken kann ganz anders ablaufen als Menschendenken und trotzdem Denken sein, so das Credo der Autorin. Um das zu zeigen, entfacht sie ein DenkmaschinenFeuerwerk: Sie hat klug beobachtet, kennt die KI-Szene (zumindest in den USA) und nimmt uns mit auf eine unterhaltsame Reise durch die Geschichte der KI-Tüftelei. Eine Reise, die für sie mit der alten Frage verknüpft ist, wie wir Wissen sammeln, mit Maschinen spielen, denkende Maschinen zu unseren Gefährten machen: Bereits der hinkende Schmied und Zeussohn Hephaistos hatte intelligente Blasebälge, die ihm aufs Wort gehorchten. McCorduck berichtet vom Enthusiasmus der Pioniere wie des Kybernetikers Norbert Wiener (1894-1964) und des Mathematikers John von Neumann (1903-1957), auf den die Idee eines gespeicherten Computerprogramms zurückgeht; beide sahen sich durchaus in der Tradition eines Rabbi Löw (1520-1609), der im frühneuzeitlichen Prag den Golem erschuf. Sie erzählt von der folgenschweren Dartmouth-Konferenz 1956, bei der Marvin Minsky und andere, auch heute noch aktive Wortführer entschieden: Ein künstliches Hirn kann wie ein menschliches arbeiten, ohne notwendigerweise wie ein solches gebaut zu sein. Künstliches Denken kann also auf algorithmischem Weg funktionieren - indem ein Programm Befehle ausführt, genauer: Symbole verarbeitet. Nebenbei erklärt McCorduck auch dem technisch unwilligen Leser, wie das legendäre »Psychotherapie«-Programm Eliza (das zwar unintelligent, aber überraschend wirkungsvoll plapperte) und all die anderen Maschinchen im Inneren ticken. Auch die Kritiker lässt sie zu Wort kommen, Joseph Weizenbaum beispielsweise, den schon der Erfolg seiner Eliza ängstigte: Offenbar seien Menschen viel zu schnell bereit, in Maschinen Intelligenz - sogar Gefühl! - zu vermuten, und deswegen sollten wir lieber die Finger von der KI lassen, um uns nicht selbst eine Falle zu stellen. Das ist alles wunderbar durchdacht und mit Herzblut berichtet. Allerdings nicht neu: Der größte Teil des Buchs er schien bereits 1981, wurde in den USA ein Bestseller und in viele Sprachen übersetzt, auch ins Deutsche (»Denkmaschinen«).
    Die Neuauflage hat McCorduck mit einem Nachwort versehen. Auf diesen 100 Seiten durcheilt sie das fehlende Vierteljahrhundert: Die »Eiszeit« in den 1980ern, als sich niemand mehr von denkenden Maschinen zu reden traute - zu grandios waren selbst »einfache« Projekte, wie die maschinelle Übersetzung, mitsamt den investierten Forschungsmillionen den Bach hinuntergegangen. KI galt als Hort der Hybris und der haltlosen Versprechungen, die Idee, ein künstliches Gehirn zu erstellen, als absurd. Die Forschungsförderung, auch des Militärs, versiegte. Danach kam wieder Leben in die Eiswüste: »Deep Blue« schlug den Schachmeister Garri Kasparow; das künstliche Denken war plötzlich wieder salonfähig. Und auch die Ängste waren wieder da: Bill Joy, Erster Wissenschaftler des Betriebssysteme-Bauers Sun Microsystems, belebte passgenau vor der Jahrtausendwende auch deutsche Feuilletons, indem er vor einer Machtübernahme durch die Maschinen warnte. All das gibt einen guten Überblick. Die Inspiration der Erstauflage hat das Nachwort aber nicht: McCorduck reiht Ereignisse aneinander, spürt jedoch den tiefer liegenden Strömungen wenig nach. Überhaupt wirkt es verlegerisch ungeschickt, die letzten 25 Jahre als Appendix an das große Werk zu fügen. Denn in diesen Jahren hat eine Zäsur stattgefunden: Das »heroische« Zeitalter der KI - wie McCorduck es charakterisiert - ist in den meisten Labors längst abgeblasen worden. Heute spricht kaum noch jemand davon, eine intelligente Maschine schaffen zu wollen; selbst das Wort »Intelligenz« meidet man eher, um weder falsche Hoffnungen noch unnötige Ängste zu schüren. Bis auf wenige Ausnahmen wie den Roboterbauer Hans Moravec, der vollintegrierte und gesellschaftsfähige Kunstmenschen unverdrossen für das Jahr 2050 prophezeit, ist die KI pragmatisch geworden. Sie hat sich, wie McCorduck durchaus bemerkt, in viele Teildisziplinen aufgespalten und konzentriert sich aufs Machbare: Der Fußballroboter soll den Ball treffen, der Kanalkrabbler das Leck im Rohr finden, der Suchalgorithmus das richtige Ergebnis liefern, die Wissensbasis funktionieren. »Heroische« Großprojekte werden da eher mit schiefem Grinsen angesehen, wie die Wissensbasis »CyC« des Stanford-Professors Douglas Lenat, in der das gesamte Alltagswissen eines Menschen in Form von Regeln wie »Schneeweiß« und »Zahnarzt gelegentlich Schmerzen« codiert werden soll, um einer Maschine dadurch menschenähnliches Wissen einzuhauchen. Pamela McCorduck aber referiert über diese seit 1994 andauernde Hamsterarbeit stoisch ohne einen Anflug von Kritik. Auch die Hinwendung zum Körper schwingt bei ihr implizit mit, wenn sie die neuen Roboter bespricht, wird aber nicht als der Trend, der er ist, gewürdigt: Embodied AI, »verkörperte KI«, ermöglicht durch die boomende Sensortechnik, lagert viele Funktionen der zentralen Steuerung in die Peripherie aus, lässt also, anthropomorph gesprochen, den Körper zu Wort kommen und entlastet den Kopf. Ein schönes Pferd, auf das McCorduck hätte aufspringen können: Schließlich ist es genau ihr Metier, den Computer nicht bloß als Werkzeug, sondern als Erkenntnisobjekt zu nutzen, wie der Mensch sich selbst sieht - denn auch in die Philosophie haben ja Diskussionen zur Körperlichkeit Einzug gefunden. Weil sich so vieles geändert hat, wäre es vielleicht klug gewesen, ein neues Buch zu schreiben, statt einfach die neuen Entwicklungen an die alten anzuhängen. Und es ist wirklich schade, dass die Autorin, wie sie im Vorwort schreibt, nicht die Zeit fand, über die Grenzen der USA hinauszugehen. Auch in Lund, Darmstadt und Tokio werden interessante Dinge gebaut. Jedenfalls ist es inzwischen klar: »Machines who think« - dieser Satz ist an den Schläfen so grau wie viele der Pioniere der KI aus dem vergangenen heroischen Zeitalter. Heute ergänzt man den Ausspruch mit einem »nun ja, irgendwie - kind of«, zieht den Laborkittel an und schraubt weiter. Das Zeitalter der großen Versprechungen ist vorbei. Und das ist gut so."
  5. Schiffhauer, N.: Microsofts Encarta ist eine zuverlässige Enzyklopädie auf CD-ROM - Die Suchfunktionen sind noch verbesserungswürdig : ¬Ein Suchspiel mit 14 Millionen Wörtern (2001) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 6683) [ClassicSimilarity], result of:
          0.03201545 = score(doc=6683,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 6683, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6683)
      0.25 = coord(1/4)
    
    Abstract
    Enzyklopädien half, war das eher ein Privileg der Wohlhabenderen oder doch jener, deren Ausgabenstruktur schief zum Durchschnitt der Bevölkerung stand. Erst die veritablen Taschenbuch-Ausgaben, dann eine Flut von CD-ROMs ließen die Kosten für das Wissen der Welt auf Beträge schrumpfen, wie sie für ein paar Kinobesuche mit leichter Hand ausgegeben werden. An Seriosität. und Umfang übertrifft die englischsprachige Encyclopxdia Britannica 2001 mit ihren 44 Millionen Wörtern alle anderen Silberschinken um Längen. Zudem ist sie mit etwa 50 British Pounds eine der preiswerten (http://britannicashop.britannica.co.uk/) und nur dann nicht erste Wahl, wenn die Quisqilien deutscher Innenpolitik im Mittelpunkt stehen sollen. Aber Englisch ist nicht everybodys darling, so daß IM deutschsprachigen Raum fast nur die Wahl zwischen dem Brockhaus Multimedia 2001 und der Enearta 2001 von Microsoft bleibt. Der Brockhaus hatte sich nach einigen Fehlzündungen mit seiner neuesten Ausgabe an die Spitze gesetzt (siehe F.A.Z. vom 26. September), was wiederum neugierig auf die neue Encarta macht. Deren Basis-Version auf einer CDROM kostet 109 Mark; die mit Multimedia Elementen üppiger ausgestatteten drei Silberlinge in einer Box liegen als Plus-Version bei 180 Mark, und gekrönt werden sie von der fünf Scheiben umfassenden Professional-Edition für 250 Mark, die um den weltbesten Atlas erweitert ist, der sich für Geld kaufen läßt. Die beiden letzten Ausgaben liegen zusätzlich auf DVD vor, was den lästigen Wechsel zwischen Text- und Multimedia-Scheiben vermeidet. Alles das ist im Buchhandel erhältlich. Die Encarta folgt der englischen Lexikon-Tradition und bietet statt knapper Erläuterungen von Stichwörtern zumeist in Alltagssprache formulierte Artikel. Wir haben uns die Plus-Version angesehen, die gegenüber ihrem Vorgänger 3000 neue Einträge enthält, während 4500 Artikel aktualisiert wurden. In den Zeiten weitläufiger Festplatten kann ihr gesamter Inhalt für noch schnelleren Zugriff auf diese transferiert werden.
    Da heute selbst jährlich aktualisierte Enzyklopädien nicht mehr ausreichend sind, dehnen anzuklikkende Stichwörter die Informationsbeschaffung ins Internet aus. Verwiesen wird dabei erfreulicherweise nur auf solche Seiten, die vorher von der Redaktion geprüft wurden. Das enthebt den Wissensdurstigen der nicht immer einfachen Prüfung, ob die Auskünfte im World Wide Weh denn zuverlässig sind. Erheblich erweitert wurden die Quellentexte, die nicht etwa Jenseits von Gut und Böse" - so ein dokumentierter Ausschnitt Nietzsches gleichnamiger Schrift von 1886 - stehen, sondern sich auf der entschieden guten Seite befinden. Die Lokalisierung genannte Anpassung des Grundwissens auf die verschiedenen Länder ist für Deutschland mit viel Liebe zum Detail gelöst worden. Zwar finden wir unter Zlatko nur den ehemaligen Ministerpräsidenten von Kroatien, dafür belegt Verona Feldbusch faktenpralle 35 Zeilen. Boris Beckers Künste mit einem Ball nehmen 5000 Buchstaben ein, Arno Schmidts Schriftstellerleben immerhin noch 3400. Die Tagesberühmtheiten wehen aber nur als Schaum auf einem beinahe unendlichen Meer des Wissens, das fast 14 Millionen Worte tief ist und sich über eine Stichwortsuche oder.die direkte Anfrage in einem vollständigen, Satz ausloten läßt. Letzteres funktioniert wenigstens beim vorgeschlagenen Beispiel, versagt aber bei der Frage, mit der die Encyclopedia Britannica (EB) für ihr Instrument der Recherche wirbt: "Warum ist der Himmel blau?" Während die EB folgerichtig zu den Formeln der Lichtstreuung von Lord Rayleigh führt, schlägt die Encarta daraufhin als Antwort einzig das Wort "Sarum" zur weiteren Suche vor. Wir kennen es ebensowenig, wie es sich auf den Seiten der drei Regalmeter Wörterbücher von Adelung über Grimm bis zum Duden findet. Aber die Antwort ist ja nur einen Mausklick weit entfernt, woraufhin die Encarta lediglich unser Fragewort "Warum" in ein "Sarum" umwandelt und unter dieser neu formulierten Frage keine Ergebnisse findet. Überhaupt, die Suchfunktionen. Sie sind verbesserungswürdig.
    Fällt jedoch der passende Begriff, stellen sich die rechten Worte augenblicklich ein. Dann auskunftet die Scheibe gleichermaßen tiefschürfend zu Genom, Riefenstahl, Adhäsion oder zum Geschlechtsleben des Regenwurms. Wer jedoch gedankenverloren beim Stichwort Goethe gleich auf den ersten Eintrag klickt, bekommt zunächst nicht die überbordende Vita des Dichterfürsten geliefert, sondern den Quellentext "Goethe über Wieland". Boole'sche Algebra kennt die Enearta zwar als Begriff, die UND-Verknüpfung jedoch ist die einzige unter ihren Möglichkeiten, die sie zur gezielten Suche nutzt. Zu schweigen von der assoziativen Stichwort-Suche, die bisher allein Brockhausens Scheibe so nachahmenswert vorlegt. Inhaltlich ist die Encarta ein Schwergewicht, das sich unter den deutschsprachigen Scheiben mit Brockhaus an der Spitze befindet. Daß aber ausgerechnet der Enearta zu viele Möglichkeiten der zielgerichteten Navigation fehlen, bezeichnete man in Mannheim als "scheinbar widersinnige, in sich widersprüchliche und der allgemeinen Erfahrung zuwiderlaufende Aussage, die jedoch eine andere, höhere oder spezifische Wahrheit spiegelt', während die Encarta diesen Begriff des Paradoxons definiert als "offensichtlich widersprüchlichen Schluß, der sich jedoch von gültigen Prämissen abzuleiten scheint'. Noch rätselhafter aber ist, warum angesichts so vieler guter und preiswerter Nachschlagewerke die Allgemeinbildung weiter verflacht. Die Enearta jedenfalls, die mit Hunderten von Bildern, Filmen, Animationen und Tonstücken lockt, trifft daran ebensowenig Schuld wie ihre silbernen Schwestern, für die dasselbe wie schon von allen herkömmlichen Büchern gilt, daß man sie eben benutzen muß.
  6. Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
          0.03201545 = score(doc=6783,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 6783, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6783)
      0.25 = coord(1/4)
    
    Abstract
    Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
    Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
    Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
  7. Rötzer, F.: Internet ist überlebensnotwendig (2001) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.03201545 = score(doc=481,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 481, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=481)
      0.25 = coord(1/4)
    
    Content
    "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
    Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
    Dafür erledigen jedenfalls angeblich 6,6 Millionen (66 Prozent) dieser sonst oft so gar nicht aufs Lernen erpichten Altersgruppe mit der Hilfe des Internet ihre Hausaufgaben oder bereiten sich auf den Unterricht vor, wobei die Mädceen etwas eifriger zu sein scheinen, Aber natürlich wird auch herumgesurft (71 Prozent), gespielt oder Spiele heruntergeladen (50 Prozent), Musik gehört oder heruntergeladen (37 Prozent). Ganz wichtig ist auch Kommunikation, also Emails (60%), Chatten (36%) oder SMS (47%) verschicken, während das "Ansehen von Finnen" (7 Prozent) etwas kurz gerät. Ob man das als Multitasking auslegen will oder nicht, so scheinen die Kinder und Jugendlichen während der Internetnutzung nicht nur Musik zu hören oder mit Freunden zusammen zu sein, sondern auch zu fernsehen, zu telefonieren, zu essen und zu trinken, zu lesen oder Hausaufgaben zu machen. Manche dieser Kombinationen ist denn schon erstaunlich. Ob die 71 Prozent, bei denen angegeben wurde, sie würden zusammen mit Freunden online gehen, dies auch immer so machen, darf doch bezweifelt werden. AOL sieht das jedoch lieber so: "Entgegen weitverbreiteter Vorurteile verzichten sie auch nicht auf die Gesellschaft anderer: 71 Prozent der Kinder und Jugendlichen surfen gemeinsam mit Freunden oder nutzen das Medium zu Kontaktaufbau und -pflege." Mit der Intemetnutzung reduziert sich auch die Zeit, die noch für andere Medien da ist. Das mag nicht so tragisch sein, wenn dafür wenige oft die Glotze (26%) oder der Radio (2 1 %) läuft, klingt aber schon nicht mehr so toll, wenn dies auch die "Nutzung" von Büchern (25%) und Zeitschriften (21%) betrifft. Bei fast 50 Prozent habe die Internetnutzung hingegen nicht zu einer Reduzierung der Zeit geführt, die für andere Medien verwendet wird."
    Footnote
    Vgl. auch: http://heise-online.de/tp/deutsch/inhalt/te/9149/1.html und zur Studie: http://www.aolpresse.de/aol/studien.shtml
  8. Allhoff, M.: Pfadfinder im Datendschungel : Einmal umgekehrt: Menschen ersetzen (Such-) Maschinen (2001) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 982) [ClassicSimilarity], result of:
          0.03201545 = score(doc=982,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 982, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=982)
      0.25 = coord(1/4)
    
    Abstract
    Würden Sie das bitte buchstabieren? Jacqueline Dietz von der Internet-Auskunft Talking.net ist einen Moment lang irritiert. "S-a-h-r-a-o-u-i?" fragt sie nach. Zugegeben, die Frage war ein wenig exotisch. Der Anrufer sucht Nachrichten über einen Nomadenstamm der westlichen Sahara. Doch schon kommt die Antwort im Cyberslang. "Schauen Sie doch mal unter http://www.der-ueberblick.de/archiv/199904/199904.067/content.html nach." Tatsächlich findet sich gleich unter der ersten Empfehlung ein aktuelles Interview mit dem deutschen Vertreter der Polisario zum Freiheitskampf der Sahraoui in Marokko. Und die freundliche Stimme am anderen Ende der Leitung kann dem Anrufer noch drei weitere Internet-Seiten vermitteln. Jacqueline Dietz ist von Beruf "Netguide". Früher half das Fräulein vom Amt mit Telefonnummern weiter. Heute nimmt der Internet-Berater dem Nutzer einen Teil seiner Recherche ab. Der Beruf ist so neu wie das Unternehmen, bei dem Dietz arbeitet. Talking.Net heißt der Informationsdienst, der mehr kann als herkömmliche Suchdienste oder klassische Telefonauskünfte. "Wir sind die erste Alles-Auskunft, die das Ziel hat, das Internet auch für Menschen ohne Computer nutzbar zu machen", sagt Pressesprecher Tilman Kube, "oder eben für Leute, die das langwierige eigene Suchen im Netz scheuen." - Virtuelle Privatsekretäre - Das Angebot von Talking.net umfasst jede Art von Auskunft, von Telefonnummein und Wettervorhersagen über Zugverbindungen bis hin zu der persönlichen Hilfe bei der Navigation durch das Internet.
    Auf Wunsch des Kunden stellen die Netguides auch alle Autohändler in München zusammen. Oder sie finden heraus, wer in Berlin gerade den günstigsten Videorecorder verkauft. Als virtuelle Privatsekretäre können die Netguides auch beauftragt werden, eine Route zum gewünschten Reiseziel vorzuschlagen und gleich noch die Flüge und Übernachtungen zu buchen. V-Commerce (Video-Handel) ist ein weiterer Bereich, in dem das Unternehmen seine Dienste anbietet. Durch die persönliche Beratung in Bild und Ton sieht Talking.net Chancen, die hohe Abbruchrate bei Käufen im Internet zu senken. Zwei von drei Benutzern brechen derzeit den Kauf aufgrund von fehlender Beratung und mangelndem Vertrauen in die anonyme Online-Welt ab. Die Netguides hingegen erläutern den Kunden alle gewünschten Produkte und helfen bei der Abwicklung des Kaufs über das Internet. "Wir sind eigentlich kein typisches Internet-Unternehmen", sagt Pressespreeher Tilman Kube, "weil wir auf Menschen setzen. Wir glauben, dass der Mensch auch im Internet-Zeitalter mit anderen Menschen kommunizieren will". Bis Mitte des Jahres soll die Zahl der Netguides von derzeit 120 auf 2000 erhöht werden. Erreichbar ist Talking.net jeden Tag zwischen 8 und 24 Uhr unter der Rufnummer 11821. Die Abrechung erfolgt über die Telefonrechnung. So kostet die Sprachauskunft 0,5452 Mark für jede angebrochene Einheit von 15 Sekunden Dauer. Für Rückrufe, Fax oder E-Mail-Antworten staffeln sich die Preise der Auskunftei nach dem Schwierigkeitsgrad der Anfrage; sie liegen zwischen vier und elf Mark zuzüglich des zeitabhängigen Grundtarifs. Im Frühjahr wird Talking.Net seinen Dienst auch online anbieten. Bei Aufruf von www.talkingnet.de kann der Kunde seinen Internet-Berater auf dem Computer-Bildschirm sehen und gleichzeitig mit ihm per Telefon oder Mikrofon im PC sprechen.
    Jeder Arbeitsplatz im Erfurter Kommunikationszentrum. ist mit einer Webcam ausgestattet. "Voice and visual over IP" nennt sich die Technologie, die in diesem Umfang in Deutschland erstmals eingesetzt wird. "Sie reden dann mit Menschen fast wie im richtigen Leben", sagt Tilman Kube. Der Bildschirm des Assistenten und der Bildschirm des Kunden lassen sich synchron schalten. Der Berater kann dadurch Internetseiten direkt auf den Bildschirm des Kunden pushen. Über die Funktion des shared browsing wird der Berater dem Anrufer auch beim Ausfüllen von Formularen helfen können. Dabei steuert der Netguide die Maus am heimischen Computer und weist dem Kunden so den Weg zum Ziel. Dass den modernen Pfadfindern im Internet die Arbeit ausgeht, ist unwahrscheinlich. Zu groß ist die Datenflut im Netz. Nach neuen Schätzungen umfasst das Internet bis heute bereits mehr als drei Milliarden Seiten, und jeden Tag kommen sieben Millionen weitere hinzu. Selbst die großen Suchmaschinen sind weit davon entfernt, das Internet in seiner Gesamtheit zu erfassen. Wer zum Beispiel bei Lycos (http://www.lycos.de) nach dem Stichwort "Suchdienst" fahndet, erhält als Resultat 8053 Internetseiten zur Auswahl - allein im deutschsprachigen Raum. Kein Wunder, dass rund die Hälfte der Nutzer Schwierigkeit damit haben, das Gesuchte zu finden. Oder das bereits Gefundene wiederzufinden. Nicht zuletzt ist nahezu die Hälfte der insgesamt 18 Millionen aktiven InternetSurfer in Deutschland erst seit einem Jahr im Netz - Anfänger also auf der Jagd im Datendschungel. Dass selbst die Netzprofis mitunter keine Antwort parat haben, dafür sorgen Anfragen nach "der Höhe der Spekulationszinsen in Frankreich". Ein Netguide schaltete nach sieben Stunden entnervt seinen Computer aus
  9. Henzinger, M.; Pöppe, C.: "Qualität der Suchergebnisse ist unser höchstes Ziel" : Suchmaschine Google (2002) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 1851) [ClassicSimilarity], result of:
          0.03201545 = score(doc=1851,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 1851, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1851)
      0.25 = coord(1/4)
    
    Content
    Spektrum der Wissenschaft: Frau Henzinger, wie viele Seiten des World Wide Web erschließt Google heute? Monika Henzinger: Wir haben über zwei Milliarden Webseiten in unserer Datenbank. Hinzu kommen 700 Millionen Newsgroup-Beiträge, die weit in die Vergangenheit reichen, und 300 Millionen Bilder. - Spektrum: Und diese Inhalte haben Sie komplett gespeichert? - Henzinger: In komprimierter Form, ja. Spektrum: Ist das nicht schon das gesamte Web? - Henzinger: Bei weitem nicht! Eigentlich ist das Web unendlich. Es gibt Datenbanken, die beliebig viele Webseiten auf Anfrage erzeugen können. Natürlich macht es keinen Sinn, die alle in der Suchmaschine zu haben. Wir beschränken uns auf Seiten hoher Qualität. - Spektrum: Wie wählen Sie die aus? - Henzinger: Nach dem so genannten PageRank. Das ist eine Note, die wir jeder Seite geben, unabhängig von irgendeiner Anfrage, für die diese Seite relevant sein könnte. Und zwar ist die Qualität einer Seite - oder anders gesagt: die Hochachtung, die sie innerhalb des Web genießt - umso größer, je mehr andere Seiten auf sie verweisen und je höher die Qualität der verweisenden Seite ist. Der PageRank bestimmt auch wesentlich die Reihenfolge, in der Google dem Anfrager die Ergebnisse präsentiert. - Spektrum: Ist der PageRank manipulierbar, etwa durch ein Zitierkartell? - Henzinger: Es wird zumindest immer wieder versucht. Zum Beispiel ist "Britney Spears" ein sehr häufiger Suchbegriff. Deswegen versuchen viele, ihren PageRank hochzutreiben, um unter den Antworten auf "Britney Spears" auf den vordersten Plätzen zu landen, auch wenn sie bloß Turnschuhe verkaufen. - Spektrum: Und was tun Sie dagegen? - Henzinger: Wenn wir offensichtlichen Missbrauch sehen, nehmen wir die entsprechenden Seiten gezielt heraus - im Interesse unserer Benutzer, für die wir die Qualität wahren wollen. - Spektrum: Gibt es auch andere Maßnahmen als diese Einzelkorrekturen? - Henzinger: Ja. Aber die diskutieren wir nicht öffentlich, um den "Rüstungswettlauf" nicht anzuheizen. - Spektrum: Seit wann gibt es Google? - Henzinger: Die Firma existiert seit dreieinhalb Jahren. Seit reichlich zwei Jahren sind wir auf dem Markt. Die Kunde von uns hat sich durch Mundpropaganda verbreitet, und inzwischen kommt die Hälfte der Anfragen von außerhalb der USA, zwölf Prozent allein aus dem deutschsprachigen Raum. Wir beantworten über 150 Millionen Anfragen am Tag, und zwar direkt oder über unsere Partner. Wenn zum Beispiel die Suchmaschine Yahoo ein Stichwort nicht im eigenen Verzeichnis findet, reicht sie die Anfrage an uns weiter und gibt dem Benutzer unsere Antwort. - Spektrum: Mit welcher Hardware läuft das System? - Henzinger: Mit über zehntausend PCs, verteilt auf vier Datenzentren. Betriebssystem ist Linux. - Spektrum: Wie prüfen Sie, ob die aufgeftihrten Webseiten noch existieren? - Henzinger: Besonders ereignisreiche Webseiten besuchen wir täglich. Alle 28 Tage aktualisieren wir den Index - das ist die Liste, die zu jedem Wort die Seiten aufführt, auf denen es vorkommt. - Spektrum: Wie aufwendig ist dieses Indizieren? - Henzinger: Sehr aufwendig. Etwa eine Woche. - Spektrum: Wie viele Leute hat die Firma? - Henzinger: Ungefähr 300. Bisher haben wir unsere Belegschaft in jedem Jahr ungefähr verdoppelt. -
    Spektrum: Wie finanziert sich Google? - Henzinger: Überwiegend durch gewöhnliche Reklame: einzeilige Anzeigen, die nur aus durchlaufendem Text bestehen. Diese Werbung erscheint nur auf solche Fragewörter, die mit dem Produkt in Verbindung stehen, wir nennen das "keyword targeting". Auch kann jeder online eine Anzeige kaufen. Wenn Sie Ihrer Frau über Google zum Geburtstag gratulieren wollen, können Sie eine Anzeige schalten, die nur auf deren Namen hin erscheint. Zweitens durch Search Services. Zum Beispiel bezahlt uns Yahoo dafür, dass unsere Ergebnisse auf deren Seite erscheinen. Manche Firmen wollen auf ihrer Webseite eine Suchfunktion einrichten, aber nicht selbst programmieren. Für diese Unternehmen bauen wir dann einen eigenen Index und beantworten damit die Suchanfragen, die an sie gestellt werden. Schließlich verkaufen wir neuerdings unsere Produkte zur firmeninternen Nutzung in Intranets. Mit diesem Konzept sind wir eine der wenigen neuen Internet-Firmen, die ihr Geld verdienen. - Spektrum: Gibt es neue Projekte? - Henzinger: Zum Beispiel Spracheingabe. Der Benutzer spricht seine Frage in ein Mikrofon und bekommt die Antworten auf den Bildschirm, später vielleicht auch gesprochen. Oder unser News Search. Unsere Maschinen lesen Tageszeitungen und stellen Artikel zum gleichen Thema aus verschiedenen Ländern zusammen. Das ist interessant, weil die Berichterstattung zumeist national gefärbt ist. Ein regelmäßiger Vergleich kann den Horizont erweitern. Klicken Sie unter google.com auf "News and Resources" und dann "Check out the Google news search". Oder User Interfaces. Wie bringt man den Benutzer dazu, mehr als zwei Wörter einzutippen? Je mehr Wörter er ansagt, desto besser können wir ihn bedienen.
    Series
    Forschung und Gesellschaft
  10. bs: Direktzugriff auf 60 Bände-Lexikon (2003) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 2229) [ClassicSimilarity], result of:
          0.03201545 = score(doc=2229,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 2229, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2229)
      0.25 = coord(1/4)
    
    Content
    "Redaktion: Im Bereich der Enzyklopädien gibt es einige hervorragende Produkte. Wie will Microsoft die Encarta zur Nummer eins machen? Sabine Peter: Encarta hat den großen Vorteil ein internationales Produkt zu sein und ist daher auch weltweit betrachtet die Nummer eins unter den Multimedia Lexika. Die CD-ROMVersion von Encarta gibt es in zehn Sprachversionen, die Online-Version in sieben Ländern. Jedoch unterscheiden sich diese Versionen nicht nur in der Sprache, sondern auch im Inhalt. So nimmt die deutschsprachige Encarta sehr viel Bezug auf die Geschichte und Kultur der Länder Deutschland, Österreich und Schweiz. Verglichen mit anderen Lexika ist es beeindruckend zu sehen, wieviel rein deutschen Bezug Encarta aufweist. Redaktion: Welche Quellen nutzt die Encarta, wer schreibt die Artikel? Sabine Peter: Die erste deutschsprachige Encarta kam 1996 auf den Markt - "Encarta Enzyklopädie 97". Seit damals wird das Lexikon von einer eigenen deutsche Redaktion mit Sitz in München lokalisiert und aktualisiert. Dabei wird Encarta nicht nur übersetzt, sondern auch inhaltlich auf den deutschsprachigen Markt ausgerichtet. Sachgebiete, wie z.B. Geschichte oder Recht, werden dabei völlig neu erarbeitet. Der Inhalt orientiert sich dabei auch an den Wünschen der Konsumenten, die über die Info-Funktion in der Menüleiste die Möglichkeit haben Feedback an Microsoft zu senden. Redaktion: Was ist neu in der Ausgabe 2003? Sabine Peter: In der Version 2003 hat man besonders viel auf die Wünsche der Kunden Rücksicht genommen. So wurde die Suchfunktion verbessert, ein Englisch-Deutsch Wörterbuch integriert und die Fülle der enthaltenen Informationen übersichtlich zusammengefasst. Diese sind in Bereichen wie z.B. Schulcenter oder Statistikcenter einfach und schnell abrufbar. Aber besonders freut mich, dass Encarta mittlerweile den Umfang eines 60-bändigen Lexikons hat! Redaktion: Wie wird für die Aktualität gesorgt? Kann der Anwender auch nach Ablauf der Update-FristAktualisierungen beziehen? . Sabine Peter: Der Anwender hat stets die Möglichkeit seine Encarta, sofern er sie in der aktuellen Version besitzt, über das Internet auf dem aktuellsten Stand zu halten. Dieser kostenlose Service steht für die Encarta 2003 noch bis Oktober 2003 zur Verfügung. Danach kann derAnwender mit einer Update-Version auf die nächste Ausgabe umsteigen. Dies macht auch insofern Sinn, als in die Nachfolge-Version neue Funktionen oder auch Bestandteile eingebaut werden. So enthält Encarta 2003 im Gegensatz zur Vorgängerversion z. B. ein Deutsch-Englisch Wörterbuch. Redaktion: Welches Umstiegs-Argument hat die Encarta selbst für eingefleischte Bücherwürmer? Sabine Peter: Ganz abgesehen vom Argument des Platzbedarfs im Vergleich zu einem 60-bändigen Lexikons ist das Suchen bei einem CD-ROM-Lexikon wesentlich einfacher, schneller und zielführender als beim Nachschlagen. Vor allem die unzähligen Querverweise und Links machen das Recherchieren zum Vergnügen: man braucht nicht ständig neue Bücher aus dem Regal zu nehmen, wenn man einem "siehe auch unter' folgen möchte. Des Weiteren sind in Encarta rund 5.500 InternetLinks eingebunden, die von der Redaktion streng auf ihren Inhalt und Verfügbarkeit überprüft werden und die Informationsfülle des Internets mit den Daten von Encarta perfekt ergänzen. Ein besonders wichtiges Argument sind die Multimedia-Elemente, die oft trockene Fakten und Recherchen durch Audio- oder Videoclips zum Leben erwecken. Die virtuellen 3D-Reisen ermöglichen sogar den Besuch antiker Städte, die leider schon vor langer Zeit zu Ruinen verfallen sind.
    Redaktion: Abschließend noch ein Blick in die Zukunft: Mit welchen neuen Funktionen und Inhalten könnten multimediale Enzyklopädien künftig ausgestattet sein - an welchen Visionen arbeiten die Encarta-Entwickler? Sabine Peter: Über die neuen Funktionen der Encarta 2004 wird erst im Frühjahr 2003 gesprochen. Für den Moment kann ich Ihnen nur verraten, dass'wir noch weiter an einer Verbesserung der Suchfunktion arbeiten. Damit wird der Anwender in eine neue Dimension der Recherche eintauchen! Zudem arbeiten die internationalen Redaktionen bereits auf Hochtouren um den Inhalt in Qualität und Quantität zu erweitern. Also, man darf gespannt sein, was Encarta 2004 alles zu bieten hat - das wird sicher eine ganze Menge sein."
  11. Metzger, C.: Gratis-Bildmaterial aus dem Web (2005) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 4412) [ClassicSimilarity], result of:
          0.03201545 = score(doc=4412,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 4412, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4412)
      0.25 = coord(1/4)
    
    Abstract
    Schluss mit langweiligen Web-Seiten, wenig aussagekräftigen Homepages oder Sites mit mickrigem Hintergrund: Aus dem Internet laden Sie gratis das passende Bildmaterial. Wer viel mit Texten aller Art zutun hat, weiß: Bei manchen Schriftstücken ist es erst die ansprechende Gestaltung mit eingefügten Grafiken, die zum Lesen animiert. Doch Textillustrationen, Fotos und Grafiken dienen nicht nur dazu, die Eintönigkeit des Schriftbilds aufzulockern. Vielmehr unterstreichen passende Bildmotive an der richtigen Stelle die Kernaussagen des Dokuments - gedruckt wie auch im Web. Auch Digitalfotografen benötigen manchmal fremdes Bildmaterial - etwa, um es für eine Bildmontage einzusetzen oder um bestimmte Bildbereiche für eine Retusche zu kopieren. Web-Designer nutzen Bildelemente etwa bei der Seitengestaltung oder für aussagestarke Navigationselemente. Doch längst nicht immer ist im eigenen Fundus das passende Bild für die Dokumentengestaltung oder die kreative Fotobearbeitung vorhanden.
    Content
    Lizenzfreie Bilder mit einer Suchmaschine aufstöbern Im Internet gibt es fast auf jeder Website Bilder, die Sie im Browser auf Ihrer Festplatte speichern und in anderen Anwendungen weiterverarbeiten können. Entsprechend riesig ist das Gesamtangebot an Fotos, Grafiken und Clipart-Elementen. Allerdings dürfen Sie Grafikelemente, die in eine Website eingebaut sind, nur dann für eigene Zwecke einsetzen, wenn der Urheber das ausdrücklich gestattet. Diese Erlaubnis ist normalerweise mit einem Begriff wie "rechtefrei", "lizenzfrei", "zur freien Nutzung" oder -englischsprachig - "royalty-free" gekennzeichnet. Das Problem: Auf den meisten Websites finden Sie keine Urheberrechtshinweise zu den eingebetteten Bildern. Am einfachsten ist die Suche nach lizenzfreien Web-Bildern mit einer für Grafiken und Fotos optimierten Suchmaschine wie Google (www.google.de), Fotos.de (www. fotos.de) oder Picsearch (www.picsearch. com). Für die Foto-Indizierung verwenden Suchmaschinen normalerweise den Text auf der Web-Seite, auf der sich auch das betreffende Bild befindet. Dabei werden doppelte Fundstellen automatisch aussortiert und Bilder mit der höchsten Qualität an den Anfang der Ergebnisliste gestellt. In Google sind laut Betreiber derzeit 880 Millionen Grafiken registriert. Zum Bildersuchdienst gelangen Sie auf der Google-Startseite per Klick auf die Registerkarte "Bilder". Geben Sie einen oder mehrere Suchbegriffe - durch Leerzeichen getrennt - in das Suchfeld ein, und klicken Sie auf den Button "Google Suche". Die Fundstellenanzeige erfolgt in Form von Miniaturvorschaubildern. Ein Klick auf das gewünschte Motiv öffnet die Website mit dem Foto. Um eine Grafik auf Ihrer Festplatte abzuspeichern, klicken Sie mit der rechten Maustaste darauf und wählen anschlie ßend im Kontextmenü den Befehl "Bild speichern unter". Lizenzfreie Bilder oder ganze Online-Fotogalerien stöbern Sie auch ohne spezielle Bildersuchfunktion mit einer Standardrecherche in einer Suchmaschine wie Alltheweb (www.alltheweb.com) auf. Geben Sie dazu einen Begriff wie "Foto", "Bilder" oder "Picture" in Kombination mit "lizenzfrei" oder "royalty-free" in das Suchfeld der verwendeten Suchmaschine ein.
    Footnote
    Web-Bilderdienste - www.72px.de Das Angebot besteht aus kostenlosen Bildern für nichtkommerzielle Projekte. Als registrierter Nutzer können Sie eigene Fotos veröffentlichen. - www.fotodatabase.net Bei der kostenlosen Foto-Community kann jeder eigene Bilder beisteuern und deren zeitlich und räumlich unbegrenztes Nutzungsrecht für 9,90 Euro an Interessenten weiterverkaufen. - www.fotodatenbank.com Die Foto-Website bietet eine Kommentierungsmöglichkeit. Die private und kommerzielle Weiterverwendung der Bilder ist kostenlos, sofern ein Bildquellnachweis erfolgt. - www.fotos-direkt.de Die Nutzungsrechte an den hochauflösenden Bildern kosten 9,90 Euro, Fotos mit niedriger Auflösung sind kostenlos. Außerdem können Sie thematisch gebundene Foto-CDs für rund 40 Euro bestellen. - www.photobox.ru Auf der Foto-Website mit englischsprachiger Bedienung müssen Sie für die Bilderrechte je nach Auflösung zwischen 5 und 35 Euro bezahlen. - www.photocase.de Die Fotos ambitionierter Hobbyfotografen liegen in einer Mindestauflösungvon 1800 x1400 Pixeln vor. Downloads sind nach einem Bonuspunktesystem eingeschränkt. - www.pixelquelle.de Alle Bilder lassen sich gratis für kommerzielle wie für nichtkommerzielle Projekte nutzen. Außerdem gibt es eine FotoUpload-FUnktion. - www.sxc.hu Bei der Fototausch-Community für lizenzfreie Bilder kann jeder Besucher eigene Bilder beisteuern und Fotos anderer Anwender herunterladen und nutzen. - www.visipix.ch Die Website bietet Fotoreproduktionen von Gemälden. Insgesamt umfasst der Bestand an Bildern rund 90.000 Aufnahmen. Die meisten Motive sind sowohl für die private als auch für die kommerzielle Nutzung kostenlos. Eine Suchmaschine erleichtert das Aufspüren von Motiven.
  12. Wei, W.: SOAP als Basis für verteilte, heterogene virtuelle OPACs (2002) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 5097) [ClassicSimilarity], result of:
          0.03201545 = score(doc=5097,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 5097, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5097)
      0.25 = coord(1/4)
    
    Abstract
    Eine wichtige Aufgabe der Informationsverarbeitung als fachbezogene Informatik besteht darin, die neue Entwicklung der Informationstechnologie zu verfolgen, sich damit auseinanderzusetzen, inwieweit diese Entwicklung die Forschung sowie die Anwendung in der Geisteswissenschaft unterstützen kann, und die daraus entstandenen Konzepte zu realisieren. Das im Jahre 1999 veröffentlichte Nachrichtenaustauschprotokoll SOAP (Abkürzung für Simple Object Access Protocol) entstand vor dem Hintergrund der schnellen Entwicklung der Vernetzung besonders des Internets. In den letzten Jahren hat SOAP große Aufmerksamkeit auf sich gezogen, weil man mit SOAP einige Beschränkungen der vorhandenen Techniken überwinden kann und damit die Leistungsfähigkeit der Software sowie Anwendung wesentlich verbessern kann. Ziel der Magisterarbeit liegt darin, einerseits theoretisch über die Möglichkeit des Einsetzens von SOAP in der Bibliotheksanwendung zu untersuchen, andererseits das Ergebnis der theoretischen Untersuchung in die Praxis umzusetzen, d.h. das Konzept eines Bibliotheksanwendungssystems mit dem Einsatz von SOAP zusammenzustellen und es zu realisieren. SOAP ist ein Nachrichtenprotokoll, das die Kommunikationen zwischen entfernten Systemen unterstützt. In der Arbeit wird durch eine theoretische Untersuchung gezeigt, dass SOAP sich besonders gut für die in der stark heterogenen Umgebung wie Internet verteilte Anwendung eignet. Eine der häufig von dem Bibliotheksystem über das Internet angebotenen verteilten Anwendungen ist der verteilte OPAC. Ein verteilter OPAC bietet eine verteilte Suche in mehreren Bibliothekssystemen an. Die meisten bisherigen Bibliothekssysteme realisieren die verteilte Suche vorwiegend mit der Unterstützung des Protokolls Z39.50. Durch die theoretische Untersuchung ist es zu sehen, dass mit dem Einsatz von SOAP einerseits der Arbeitsaufwand in der Realisierung bzw. die Verwaltung des Systems verglichen mit dem Z39.50 reduziert, andererseits die Funktionalität des Systems stark erweitert wird, dass eine Zusammenarbeit des Bibliothekssystems mit den Systemen anderer Bereiche leicht realisiert werden kann. Als praktisches Projekt der Magisterarbeit wird ein System der verteilten OPACs mit SOAP als Nachrichtenaustauschprotokoll entwickelt.
    Content
    Überblick über die Kapitel In Kapitel l. Simple Object Acces Protocol (SOAP) wird zuerst der Hintergrund der Entwicklung von SOAP untersucht. Mit einer kurzen Vorstellung der Entwicklung von verteilter Anwendung bis Web Service wird die Situation dargestellt, dass die vorhandenen Standards wie CORBA, DCOM sowie RMI die Ansprüche der stark heterogenen Umgebung wie Internet nicht erfüllen können. Um diesen Mangel der vorhandenen Lösungen zu überwinden, wurde SOAP mit dem Ziel der Unterstützung des plattformenunabhängigen Nachrichtenaustausches entwickelt. Anschließend wird der Begriff Web Service eingeführt, mit dem SOAP stark verbunden ist. Dabei wird über die Möglichkeit des Einsatzes von SOAP in den Bibliothekssystemen diskutiert. Schließlich wird SOAP durch unterschiedliche Aspekte wie SOAP und XML, SOAP Nachricht, Fehler Behandlung usw. untersucht. In Kapitel 3. Die durch Internet erweiterte Bibliothek wird die Beziehung zwischen dem Internet und der Bibliothek aus zwei Sichten, die verteilte Suche und Metadaten, beschrieben. In dem Teil über die verteilte Suche wird vorwiegend das Protokoll Z39.50, womit die bisherigen verteilten Bibliothekssysteme realisiert werden, dargestellt. In dem Teil der Metadaten wird sich zuerst mit der Bedeutung der Metadaten für die Bibliothek sowie für das Internet auseinandergesetzt. Anschließend wird über die existierenden Probleme der Metadaten und die Lösungsmöglichkeiten diskutiert. Schließlich wird eine Untersuchung einiger Metadatenstandards mit Dublin Core als Schwerpunkt durchgeführt, weil Dublin Core zur Zeit der Standard für das Internet und aus diesem Grund auch fir die Internet bezogene Bibliotheksanwendung wichtig ist. In Kapitel 4. Die Entwicklung eines verteilten Bibliothekssystems mit dem SOAP-Einsatz wird die Entwicklung des praktischen Projektes beschrieben. Zuerst wird das Ziel und die Funktionalität des Projektes festgelegt, dass ein verteiltes Bibliothekssystem mit dem Einsatz von SOAP entwickelt wird und das System eine verteilte Suche auf mehreren entfernten Bibliotheksdatenbanken ermöglichen soll. Anschließend wird beschrieben, in welchen Schritten das System entworfen und implementiert wird. Mit dem ersten System kann man nur in einer Datenbank suchen, während man mit dem zweiten System parallel in zwei Datenbanken suchen kann. Dublin Core wird als der Metadatenstandard im gesamten System eingesetzt. Die im System verwendeten Softwarepakete und die Softwarestandardtechnologien werden vorgestellt. Es wird untersucht, wie einzelne technische Komponenten zusammenarbeiten. Schließlich wird die Entwicklung der einzelnen Programmmodule und die Kommunikation zwischen ihnen beschrieben.
  13. Hartkopf, A.: Wer hat den Kleinsten? : Preissuchmaschinen (2005) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 5728) [ClassicSimilarity], result of:
          0.03201545 = score(doc=5728,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 5728, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5728)
      0.25 = coord(1/4)
    
    Abstract
    In Zeiten von Lohnkürzungen und unbezahlter Mehrarbeit wird die Suche nach den niedrigsten Preisen immer wichtiger. Preissuchmaschinen bewerten, vergleichen und öffnen den Weg zu den wahren Schnäppchen im Internet.
    Content
    "Früher war es einfacher. Da ging man bei größeren Anschaffungen durch zwei oder drei Läden, notierte sich Preise und vielleicht Lieferbedingungen. Und kaufte. Keinen Münchner kratzte, ob der gesuchte Artikel in Leipzig oder Buxtehude deutlich billiger zu haben wäre. Erst das Internet brachte den Fernhandel richtig in Schwung. Die Datenbank macht's möglich. Tausende Einzelhändler bieten ihre Ware online an, und Sie können vergleichen. Preissuchmaschinen wollen den Usern eine möglichst breite Auswahl an Händlern und Produkten bieten. Idealerweise sollte das Shoppen dabei bis auf den finalen Klick, die Bestellung, auf einer Website vonstatten gehen können. Grundsätzlich gibt es zwei Wege, um an das begehrte Gut zu gelangen: Produktnamen eintippen oder sich durch eine Hierarchie von Kategorien durchklicken (Elektronik/Fernseher/ LCD/Lieblingsmarke). Den Weg der Tipper verfolgt am konsequentesten Google-Ableger Froogle. Eine Suche in Kategorien ist auf der Startseite nicht vorgesehen. Vielmehr setzt Froogle auf das von Google vertraute Look and Feel sowie die bewährte Suchtechnik, sparsame Oberfläche, einfache Ergebnisliste. Die Links führen direkt zu den Produkten. Rechts im Fenster gibt es eine Reihe von Textanzeigen, links ein paar Ansichtund Sortieroptionen. Auch das Preissegment lässt sich hier eingrenzen. Wer lieber nach Kategorien sucht, muss dafür in die erweiterte Suche wechseln. Interessant ist hierbei besonders die Möglichkeit, nach den gewünschten Wörtern entweder in den Produktnamen, den -beschreibungen oder in beiden gleichzeitig suchen zu lassen. Bei Froogle gelistete Händler geben standardisierte Informationen, so genannte Feeds, an den Preissuchdienst weiter. Für die Aktualität sind im Wesentlichen diese Feeds verantwortlich. Darüber hinaus setzt Froogle auf die von Google erprobte Suchtechnologie. Spider besuchen Websites, forschen nach Produkten und Preisen. Froogles Technik errechnet eine Rangfolge, nach der die Ergebnisse angezeigt werden. Händler haben keinen Einfluss auf die Rangfolge in den Ergebnislisten. Die Teilnahme bei Froogle ist für Händler kostenlos. Auch Kelkoo verfügt über die manchmal wichtige fehlertolerante Suche. Das seit 2003 in Deutschland aktive Unternehmen gehört seit März letzten Jahres zu Yahoo. Es listet derzeit über 6 Millionen Produkte aus rund 2000 Shops. Kelkoo kooperiert mit diesen ausgewählten Händlern. Je nach Modell können diese sich kostenlos registrieren lassen. Ihre Angebote erscheinen dann in den Ergebnislisten. Oder sie gehen eine kostenpflichtige PremiumPartnerschaft ein. Dafür erhalten Sie zusätzliche Leistungen wie Nennung der Lieferkosten oder Einbindung in den Preisvergleich (und nicht nur die Ergebnisliste). Auch die Händlerdaten werden beim Premium-Angebot in Kelkoos Shopübersicht eingebunden. Kelkoo aktualisiert seine Datenbanken (werk-)täglich, um immer auch die tagesaktuellen Angebote der Händler anzeigen zu können.
    Imperative Kategorien Für Tippfaule hält Kelkoo Produktkategorien mit leicht stylischen Namen wie "Beauty" oder "Accessoires" parat. Das trägt nicht immer zur besseren Orientierung bei. Wer sich nicht auskennt, kann sich jedoch die Unterkategorien anzeigen lassen. Im Anschluss an die Ergebnislisten tauchen sämtliche (über 100) Kategorien sogar ohne Hierarchie auf, dankenswerterweise alphabetisch geordnet. Die Ergebnisse sind direkt zu den Produkten auf den Händler-Sites verlinkt. Im Unterschied etwa zu Froogle gibt es bei Kelkoo eine Extra-Funktion für den Preisvergleich. Neuer Renner Recht jung im deutschen Markt ist PriceRunner.com. Die ursprünglich aus Schweden kommende Firma listet derzeit rund 300000 Produkte von ca. 3 500 Händlern. Die Preise sind tagesaktuell und werden durch offline ermittelte Preise aus Ladengeschäften ergänzt (derzeit in Berlin, Hamburg, Köln und München). Die Produktpalette mit detaillierten Informationen zu den Produkten reicht von Elektronik über Haushaltsgeräte bis zu Sportartikeln und Schmuck. Wer PriceRunner nutzen will, sollte sich registrieren lassen. Nur so ist die Teilnahme an der Community möglich. Registrierte können sich auch alarmieren lassen, wenn ein Produktpreis auf das gewünschte Niveau fällt. Die Suche nach einem Gerät ist über eine Eingabemaske oder übersichtlich gegliederte Produktkategorien möglich. Interessant sind dabei die vielfachen und einleuchtenden Optionen. Wer z. B. nach Fernsehern sucht, erhält im linken Teil der Seite eine Reihe von Aufklappmenüs. Anhand dieser kann er etwa den gewünschten Bildschirmtyp (Röhre, LCD, Plasma), die Größe oder die Soundeigenschaften auswählen. Das hilft, die Suche gehörig einzuschränken. Die Suchergebnisse lassen sich nach Preis, Beliebtheit des Produkts, Name usw. sortieren. Technisch verunsicherte Konsumenten erhalten verständlich geschriebene Tipps zum Kauf. Neben der Bewertung durch die PriceRunnerCommunity werden - so weit vorhanden - auch professionelle Tests verlinkt. Schließlich zeigt die Ergebnisliste mit dem Preis auch das Alter des Eintrags an. Selbst wenn die Großen auf dem Markt den Überblich über die mesten Produkte bieten, kann auch ein Preisvergleich bei kleinen Suchhilfen lohnen. Manche machen mit Zusatzangeboten auf sich aufmerksam. So stellt der Elektronikspezialist Guenstiger.de die Preisentwicklung seiner gelisteten Produkte grafisch dar. Diese Charts vermitteln einen Eindruck davon, ob es sich lohnen könnte, auf weiter sinkende Preise zu warten. Billiger.de zum Beispiel versucht, für Leute mit schmaler Brieftasche auch den Finanzierungsaspekt mit abzudecken. Sites wie Ciao oder Dooyoo räumen schließlich der Community großen Stellenwert ein. Der Erfahrungsaustausch wirkt in zwei Richtungen. Zum einen gewinnen Kaufwillige einen Eindruck von dem Artikel, den sie erstehen wollen. Zum anderen lernen sie manches über die Händler, deren Zuverlässigkeit und Kundenfreundlichkeit. Ein Suchportal für Testberichte von Fachzeitschriften bis zur Stiftung Warentest bildet Testberichte.de. Die Site bietet einen Überblick über professionelle Tests zu einer Vielfalt an Produkten."
  14. Zänker, B.: 22. Sitzung des SISIS-Anwenderforums Berlin-Brandenburg (2007) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 1463) [ClassicSimilarity], result of:
          0.03201545 = score(doc=1463,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 1463, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1463)
      0.25 = coord(1/4)
    
    Content
    "Am 26. April 2007 fand das 22. SISIS-Anwenderforum Berlin-Brandenburg im GeoForschungsZentrum Potsdam statt. Im Wissenschaftspark Albert Einstein auf dem Telegraphenberg sind neben dem GeoForschungsZentrum Potsdam das Potsdam-Institut für Klimafolgenforschung, die Stiftung Alfred-Wegener-Institut für Polar- und Meeresforschung Forschungsstelle Potsdam ansässig. Der Leiter der gemeinsamen Bibliothek, Herr Bertelmann, gab eine interessante Einführung in die Geschichte des Wissenschaftsparks und hatte bei der im Anschluss an die Sitzung stattfindende Führung bei strahlendem Sonnenschein viele interessante Details zu den sich dort befindenden Gebäuden bzw. der Technik, wie dem Einsteinturm, dem großen Refraktor oder den verschiedenen Teleskopen zu erzählen. Aber auch der restaurierte Lesesaal der Bibliothek sowie die interessanten historischen Messgeräte brachten die Anwesenden zum Staunen. Thematisch stand diesmal neben speziellen Entwicklungen und Problemen aus der Anwendungspraxis der SISIS-Software die mittelfristige Entwicklung des KOBV im Mittelpunkt der Diskussion. Zu Beginn berichtete Frau Hitziger (IKMZ der BTU Cottbus) über die Ergebnisse des InfoGuide-Anwendertreffens im November 2006 in der FHTW Berlin. Die Vertreter der Firma OCLC PICA nutzten die Gelegenheit, auf die von den Anwendern geäußerten Fragen zu antworten. Die gewünschte XML-Schnittstelle zur Targetkonfiguration ist in den nächsten Versionen nicht vorgesehen. Alternativ dazu plant OCLC PICA den Einsatz des Moduls z2web, mit dem Web-Interfaces als Z39.50-Target simuliert werden können. Das Modul wird im IKMZ Cottbus getestet. Außerdem ging der Wunsch an den KOBV, einen lizenzrechtlichen Weg zur Einbindung der SFX-Funktionalität in die Verfügbarkeitsrecherche des InfoGuide zu finden. Schließlich berichtete Frau Hitziger über aktuelle Erfahrungen mit dem InfoGuide in Cottbus:
    - nach Freigabe der Verfügbarkeitsrecherche wurde von den Benutzern deutlich mehr in fremden Targets recherchiert - die Möglichkeit, Online-Fernleihbestellungen aus dem InfoGuide auszulösen, wird von den Nutzern gut angenommen (schon 3 Monate nach der Freigabe wurde fast die Hälfte der Bestellungen auf diesem Weg ausgelöst) - eine Untersuchung des Rechercheverhaltens der Benutzer ergab, dass vor allem nach Titel, Autor und Schlagwort recherchiert wird, während die freie Suche nur in 15% der Fälle angewendet wird. Im Ergebnis der Untersuchungen wurde auch deutlich, dass die im Februar in Cottbus freigegebene Systematiksuche von den Benutzern vorrangig zum Brow-sen und weniger für Recherchen genutzt wird. Es zeigte sich, dass eine Verschlankung der Texte im InfoGuide die Gebrauchstauglichkeit steigerte. Die stellvertretende Leiterin der KOBV-Zentrale, Frau Kuberek, berichtete anhand der KOBV-Rundbriefe und der darin veröffentlichten Beschlüsse des Kuratoriums über die anvisierte strategische Allianz des KOBV mit dem BVB. Im Rahmen seiner Strategiediskussion hatte der KOBV im Sommer 2006 Gespräche mit allen deutschen Verbünden geführt, um Möglichkeiten einer engeren Zusammenarbeit zu prüfen. Im September 2006 beauftragte das Kuratorium im Rahmen eines Beschlusses eine Verhandlungsgruppe, unter verschiedenen Prämissen Gespräche mit dem BVB über eine strategische Allianz zu führen. Diese Verhandlungen wurden fachlich begleitet durch vier vom Hauptausschuss gebildete Arbeitsgruppen. Derzeit wird ein Vertragsentwurf erarbeitet, der dem KOBV-Kuratorium im Juni vorgelegt werden soll. In Bezug auf Details und ausführliche Informationen über die Entwicklungen verweist Frau Kuberek auf die KOBV-Rundbriefe, in denen die Ergebnisse der Kuratoriumssitzungen festgehalten sind. Sie können auf dem KOBV-Server unter "http://www.kobv.de > Wir über uns > Publikationen > KOBVRundbriefe" eingesehen werden.
    Ergänzend dazu stellte Herr Scheuerl von der Verbundzentrale des BVB nach der Mittagspause den dortigen ASP-Dienst "Hosting von SISIS-Lokalsystemen in der Verbundzentrale" vor. Neben einer First-Level-Support-Hotline, die seit ca. 10 Jahren betrieben wird, entstand seit 2001 sukzessive ein zentraler ASP-Dienstfür SISIS-Lokalsysteme mit einer in der Bayerischen Staatsbibliothek in München installierten Hardware. Ursprünglich von Fachhochschulbibliotheken ausgehend, werden inzwischen neben Spezialbibliotheken und staatlichen bayerischen Bibliotheken auch die UBs Regensburg, München und Augsburg sowie eine öffentliche Bibliothek betreut. Er erläuterte einige konkrete Rahmenbedingungen des laufenden technischen Betriebs und spannt den Bogen vom Grundprinzip: "Möglichst keine Restriktionen für den lokalen Ansprechpartner" bis zur Beschaffung der nötigen Hardware. In der Diskussion wurde von OCLC PICA bestätigt, dass es bundesweit keinen vergleichbaren Service für SunRise-Systeme gibt. Der ASP-Dienst könnte - nach Aussage von Herrn Scheuerl - auch genutzt werden, ohne (im BVB) zentral zu katalogisieren. Abschließend bot Herr Scheuerl eine Teststellung für eine Bibliothek aus dem Kreis an. Die Fachhochschule Brandenburg signalisierte Interesse. Herr Todt (Europa-Universität Viadrina Frankfurt/Oder) erläuterte anschließend den bisherigen Umgang mit den Schlagwortketten nach RSWK in SISIS-Systemen. Aus einem Workshop 2004 in Oberhaching entstand die in Version 3.5 realisierte Möglichkeit der Verarbeitung von Schlagwortketten. Ergänzend zeigte Herr Alter (IKMZ der BTU Cottbus) einige konkrete Beispiele und einschlägige Probleme aus der entsprechenden Anwendung auf dem Cottbuser Testserver. Die UB Cottbus hat auf ihrem Testserver wiederholt die Generierung der Darstellung von Schlagwortketten getestet. Es wurde sehr viel Speicherplatz beansprucht sowie zahlreiche Fehlermeldungen erzeugt. Nach der Generierung wurden die Ketten im Erwerbungsclient dargestellt, nach der Umsetzung eines Hinweises von OCLC PICA nach dem Anwendertreffen auch im InfoGuide. Der Fehler, der eine korrekte Unterscheidung von einfachen und zusammengesetzten Schlagworten verhindert, wurde in der Version V3.5pl2 behoben. Traditionell stellte die Firma OCLC PICA ihre neuen Produkte vor: ELLI, Schnittstelle zu Agenturen; FiBu-Schnittstelle. Frau Herrmann (OCLC PICA) demonstrierte die Oberflächen der nächsten InfoGuide-Version, die deutlich verändert und weitgehend barrierefrei werden. In der anschließenden Diskussion wird angemahnt, dass das Nachführen eigener Texte bei neuen Versionen einen erheblichen Aufwand bedeutet."
  15. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.01
    0.008003863 = product of:
      0.03201545 = sum of:
        0.03201545 = weight(_text_:und in 3617) [ClassicSimilarity], result of:
          0.03201545 = score(doc=3617,freq=26.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26505727 = fieldWeight in 3617, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3617)
      0.25 = coord(1/4)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Als Yang vor einigen Tagen auf einer Konferenz die Neuentwicklungen für Mobiltelefone vorstellte, stand er lange alleine auf der Bühne. Seinen blassen Kompagnon Filo holte er erst am Ende kurz dazu. Yang, gewohnt leger im blauen Pulli mit V-Ausschnitt und beiger Hose, begann seinen Vortrag mit einem Scherz: "Sie wollen den neuen Look von Yahoo sehen, das neue Gesicht. Ich werde Sie enttäuschen müssen. Es ist immer noch das alte." Nämlich seines. Er ist der Mann fürs Rampenlicht, zumindest wenn es sein muss. Im vergangenen Jahr hat Yang im Konzern wieder die Leitung übernommen. Der vorherige Chef wechselte wegen der schwachen Börsenkurse in den Aufsichtsrat. Den Titel "Chief Yahoo!" hatte der gebürtige Taiwanese ohnehin nie abgelegt. Das Silicon Valley gehört zu seiner Erfolgsgeschichte wie sein Lebenslauf. Mit seiner Mutter und seinem Bruder kam er im Alter von zehn Jahren im kalifornischen San José an, der selbsternannten Hauptstadt des High-Tech-Tals, in dem die Start-up-Millionäre wohnen. Apple, Ebay, Google, alle haben in dieser Gegend angefangen. Als Yang nach San José kam, soll er nur ein englisches Wort gekannt haben: Shoes. Er lernte schnell andere Wörter dazu, in der Schule war er ein Mathe-Ass. Und obwohl Stanford erklärte, ihn finanziell nicht umfangreich mit Stipendien unterstützen zu können, beschloss er, genau dort, auf dem Campus im Silicon Valley, sein Studium zu beginnen. Während seiner Promotion legte er zusammen mit David Filo ein Netzverzeichnis an, das sie "Jerry's Guide to the World Wide Web" nannten. Schon da stand sein Name im Vordergrund. Die Büros der beiden waren klein und recht unordentlich, aber bei Yang lagen zwischen den Büchern und Zetteln immerhin keine T-Shirts und dreckigen Socken wie bei Filo. Wahrscheinlich haben all diese Anekdoten dem Image der beiden eher geholfen als geschadet, jedenfalls bekamen sie eine Million Dollar von einem Wagnis-Kapital-Geber. Als sie wenig später an die Börse gingen, stieg der Kurs am ersten Tag um 154 Prozent. Ihre kleine Firma war trotz der überschaubaren Umsätze plötzlich 800 Millionen Dollar wert. Yang ließ seine Promotion ruhen. Bis heute. Trotzdem ist er alles andere als ein lässiger Abhänger. Er war immer smart, strebsam und arbeitete, wenn es sein musste, Tag und Nacht. Damit erfüllte er in den Jahren des Internet-Booms jenes Klischee, das asiatischen Einwanderern nachgesagt wurde. Nur hatte das jetzt keinen negativen Touch mehr. "Sie sind so etwas wie die Helden der Jahrhundertwende", schrieb das Time Magazin über erfolgreiche asiatische Einwanderer. Ein Beispiel: Jerry Yang.
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
  16. Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003) 0.01
    0.007969585 = product of:
      0.03187834 = sum of:
        0.03187834 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
          0.03187834 = score(doc=2832,freq=58.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26392213 = fieldWeight in 2832, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2832)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
    - Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
    Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
  17. Hofstadter, D.R.: I am a strange loop (2007) 0.01
    0.007969585 = product of:
      0.03187834 = sum of:
        0.03187834 = weight(_text_:und in 1666) [ClassicSimilarity], result of:
          0.03187834 = score(doc=1666,freq=58.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.26392213 = fieldWeight in 1666, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1666)
      0.25 = coord(1/4)
    
    BK
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Classification
    31.02 / Philosophie und Wissenschaftstheorie der Mathematik
    Footnote
    Rez. in Spektrum der Wissenschaft 2007, H.9, S.93-94 (M.Gardner): "Unser Gehirn enthält einige hundert Mil-liarden Neuronen mit zehntausendmal so vielen Verbindungen zwischen ihnen. Durch welch unglaubliche Zauberei wird dieses Gewirr von Fäden seiner selbst bewusst, fähig, Liebe und Hass zu empfinden, Romane und Sinfonien zu schreiben, Lust und Schmerz zu fühlen und sich aus freiem Willen für Gut oder Böse zu entscheiden? Der australische Philosoph David Chalmers hat die Erklärung des Bewusstseins »das schwere Problem» genannt. Das leichte Problem ist, Unbewusstes wie Atmen, Verdauen, Gehen, Wahrnehmen und tausend andere Dinge zu verstehen. An dem schweren beißen sich Philosophen, Psychologen und Neurowissenschaftler zurzeit bevorzugt die Zähne aus und produzieren tausende Bücher. Ein aktuelles stammt von Douglas R. Hofstadter, Professor für Kognitionswissenschaft an der Universität von Indiana in Bloomington, der vor allem durch sein preisgekröntes Buch »Gödel, Escher, Bach» bekannt geworden ist. Sein neues Werk, so genial und provokant wie seine Vorgänger, ist eine bunte Mischung aus Spekulationen und Geschichten aus seinem Leben. Ein ganzes Kapitel ist einer persönlichen Tragödie gewidmet, die Hofstadter bis heute zu verarbeiten versucht: Im Dezember 1993 starb seine Frau Carol im Alter von 42 Jahren plötzlich an einem Hirntumor. In der Vorstellung von einem Leben nach dem Tod kann er keinen Trost finden; so bleibt ihm nur die Gewissheit, dass Carol in den Erinnerungen derer, die sie kannten und liebten, weiterleben wird - zumindest für eine gewisse Zeit.
    Das Buch ist voll von glücklichen Erinnerungen - und weniger glücklichen. Als er als Fünfzehnjähriger aufgefordert wurde, zwei Meerschweinchen auszuwählen, die für ein Laborexperiment getötet werden sollten, erlitt er einen Schwächeanfall. Seine heftige Abneigung gegen das Töten von Tieren machte ihn zum Vegetarier und später sogar zum Veganer, der nicht nur auf alle Nahrung tierischen Ursprungs verzichtet, sondern auch auf das Tragen von Lederschuhen und -gürteln. Wie sein großes Vorbild Albert Schweitzer leidet er unter Schuldgefühlen, wenn er eine Fliege klatscht. Auf vielen Seiten kommt Hofstadters große Liebe zur Musik zum Ausdruck. Er ist ein klassischer Pianist; seine Lieblingskomponisten sind Bach, Chopin und Prokofiew, während er Bartok nicht mag. Seine Liebe zur Poesie geht so weit, dass er, neben anderen Werken, Alexander Puschkins (1799-1837) großes Versepos »Eugen Onegin« aus dem Russischen ins Englische übersetzte. Ein im Buch abgedrucktes, pfiffiges Gedicht einer begeisterten Zuhörerin besingt ein Erlebnis, dem Hofstadter symbolische Bedeutung zuweist. Als er eines Tages einen Packen Briefumschläge anfasst, staunt er über die kleine Murmel, die in der Mitte eingeklemmt zu sein scheint. Es ist aber keine Murmel, sondern nur die Stelle, an der wegen der dort zusammentreffenden Papierlagen der Stapel dicker ist. In ähnlicher Weise, sagt Hofstadter, glauben wir unser Ich eingeklemmt zwischen den Neuronen unseres Gehirns wahrzunehmen.
    Die Murmel liefert das Hauptthema des Buchs. Die Seele, das Ich, ist eine Illusion. Es ist eine »seltsame Schleife« (a strange loop), die ihrerseits von einer Unzahl von Schleifen auf einem niedrigeren Niveau erzeugt wird. So kommt es, dass der Klumpen Materie innerhalb unseres Schädels nicht nur sich selbst beobachtet, sondern sich dessen auch bewusst ist. Seltsame, genauer: selbstbezügliche Schleifen faszinieren Hofstadter seit jeher. Er sieht sie überall. Sie sind das Herzstück von Gödels berühmtem Unbeweisbarkeitssatz. Sie lauern in den »Principia Mathematica« von Russell und Whitehead, stets bereit, die Fundamente der Mathematik zu untergraben. Ihre kürzeste Form sind logische Paradoxa wie »Dieser Satz ist falsch« oder die Karte, auf deren einer Seite steht »Der Satz auf der Rückseite ist wahr« und auf der anderen »Der Satz auf der Rückseite ist falsch«. In Kapitel 21 führt er ein verstörendes Gedankenexperiment ein, das auch Thema zahlreicher Sciencefiction-Geschichten ist: Ein Mann wird, wie in »Raumschiff Enterprise«, auf einen fremden Planeten und zurück gebeamt, indem eine Maschine ihn Molekül für Molekül abscannt und die Information an den Zielort übermittelt, wo sie zur Herstellung einer exakten Kopie dieses Menschen dient. Wenn dabei das Original zerstört wird, entsteht kein philosophisches Problem. Wenn es aber erhalten bleibt - oder mit derselben Information zwei Kopien hergestellt werden -, entsteht ein Paar identischer Zwillinge mit identischen Erinnerungen. Ist der so gebeamte Mensch derselbe wie das Original oder ein anderer?
    Gewisse Themen können Hofstadters Zorn erregen, zum Beispiel die Diskussion über das so genannte inverted spectrum paradox. Wie kann ich sicher sein, dass ein anderer Mensch das, was ich als Rot erlebe, genauso erlebt wie ich und nicht etwa eine Empfindung hat, die ich als Blau bezeichnen würde? Oder das Konzept vom Zombie, einem Wesen, das sich in jeder Hinsicht so verhält wie ein gewöhnlicher Mensch, dem aber alle menschlichen Gefühle fehlen. Oder Bewusstsein und freier Wille. Hofstadter hält beides für Illusionen, für Trugbilder gleich der Murmel im Briefumschlagstapel, allerdings für unvermeidbare, machtvolle Trugbilder. Wir erleben, dass ein Ich in unserem Schädel steckt, aber das ist nur eine Illusion, die von Millionen kleiner Schleifen erzeugt wird, »einem Schwarm bunter Schmetterlinge in einem Obstgarten«. An dieser Stelle ist Hofstadter anderer Meinung als sein Freund, der Philosoph Daniel C. Dennett (mit dem zusammen er das Buch »The Mind's I«, deutsch »Einsicht ins lch«, herausgegeben hat). Aber wie Den-nett, der einem seiner Werke den dreisten Titel »Consciousness Explained« gab, glaubt er, er habe das Bewusstsein erklärt. Das stimmt leider nicht. Beide haben das Bewusstsein nur beschrieben. Einen Regenbogen zu beschreiben ist einfach, ihn zu erklären ist nicht so einfach. Bewusstsein zu beschreiben ist einfach, aber das Wunder zu erklären, durch das ein Haufen Moleküle es hervorbringt, ist nicht so einfach. Ich will meine Karten auf den Tisch legen. Ich gehöre zu der kleinen Gruppe der »Mysterianer«, zu denen auch die Philosophen John R. Searle (der Schurke in Hofstadters Buch), Thomas Nagel, Colin McGinn und Jerry Fodor sowie der Linguist Noam Chomsky, der Mathematiker Roger Penrose und einige andere zählen. Wir sind der Überzeugung, dass kein heute lebender Philosoph oder Naturwissenschaftler auch nur die nebelhafteste Ahnung davon hat, wie Bewusstsein und sein unzertrennlicher Begleiter, der freie Wille, aus einem materiellen Gehirn entstehen (was sie zweifellos tun). Wir sind überzeugt, dass kein Computer, wie wir ihn heute kennen - das heißt, der aus Schaltern und Verbindungsdrähten gebaut ist -, je ein Bewusstsein dessen erlangen wird, was er tut. Das stärkste Schachprogramm wird nicht wissen, dass es Schach spielt, ebenso wenig wie eine Waschmaschine weiß, dass sie Wäsche wäscht.
    Einige wenige Mysterianer glauben, dass die Wissenschaft eines glorreichen Tages das Rätsel des Bewusstseins lüften wird. Penrose zum Beispiel ist davon überzeugt, dass das Mysterium einem tieferen Verständnis der Quantenmechanik weichen wird. Ich selbst gehöre zu einer radikaleren Fraktion. Wir halten es für den Gipfel der Selbstüberschätzung zu glauben, unser Gehirn sei der unübertreffliche Gipfel der Denkfähigkeit. Mit Sicherheit gibt es Wahrheiten, die unsere intellektuellen Fähigkeiten ebenso weit übersteigen wie unsere Weisheiten die intellektuellen Fähigkeiten einer Kuh. Warum hat das Universum eine mathematische Struktur? Warum gibt es sich, wie Stephen Hawking es ausdrückte, überhaupt die Mühe, zu existieren? Warum gibt es etwas und nicht nichts? Wie bringen die Schmetterlinge in unserem Hirn die seltsamen Schleifen des Bewusstseins zu Stande? Vielleicht kennen höherentwickelte Lebensformen in der Andromeda-Galaxie die Antworten. Ich kenne sie sicher nicht. Hofstadter und Dennett kennen sie nicht. Und Sie, verehrter Leser, auch nicht.
  18. Jeanneney, J.-N.; Meister, M.: ¬Ein Kind der kommerziellen Logik : Der Präsident der Pariser Bibliothèque Nationale de France, Jean-Noël Jeanneney, über "Google print" und eine virtuelle, europäische Bibliothek (2005) 0.01
    0.007848433 = product of:
      0.031393733 = sum of:
        0.031393733 = weight(_text_:und in 555) [ClassicSimilarity], result of:
          0.031393733 = score(doc=555,freq=36.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25991005 = fieldWeight in 555, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=555)
      0.25 = coord(1/4)
    
    Content
    "Frankfurter Rundschau: Monsieur Jeanneney, Sie wollen "Google Print" eine virtuelle, europäische Bibliothek entgegen setzen. Ist das der Beginn eines neuen Kalten Krieges, eines Krieges der Ideen? Jean-Noel Jeanneney: Wenn es antiamerikanisch ist, Google nicht das Monopol zu überlassen, dann will ich gerne antiamerikanisch sein. Was ich im Übrigen natürlich nicht bin, denn ich mag Amerika sehr. Aber es ist ein Land, das in vielerlei Hinsicht anders ist als Europa. Die Amerikaner wissen selbst am besten, dass jede Form von Monopol gefährlich ist. Monopole laufen Gefahr, unterzugehen. Sie können keinesfalls Dauerhaftigkeit und Fortbestand garantieren. Es ist vor allem dem Widerstand der amerikanischen Verlegervereinigung zu verdanken, dass Google auf die Bremse getreten ist und sein Projekt für ein paar Monate auf Eis gelegt hat. Wir haben es nicht mit einem Kalten Krieg zu tun, sondern um ein Interesse des gesamten Planeten und insbesondere der USA, die Digitalisierung des Kulturerbes auf multikultureller Basis zu betreiben. Es geht nicht darum, Europa gegen die USA zu stellen, sondern ein komplementäres System aufzubauen, an dem auch Indien, China und die arabische Welt teilhaben. Wo sehen sie die Gefahr von "Google Print"? Ich sehe insgesamt drei Gefahren, zwei kurzfristige und eine langfristige. Letztere betrifft den Fortbestand. Sollte Google alleiniger Eigentümer dieser Meta-Bibliothek sein, wie ich sie nenne, was geschieht dann eigentlich, wenn Google verschwindet? Einzig und allein Staatsgebilde können langfristig den Fortbestand garantieren. Nehmen Sie die Bibliotheque Nationale de France. Die Staaten müssen sich folglich einmischen und versuchen, diesem rein am Kapital orientierten Projekt einen längeren Atem einzuhauchen, den Atem von mehreren Generationen. Und wo sehen Sie die kurzfristigen Gefahren? Wissen und Kulturerbe müssen organisiert, das Angebot hierarchisiert werden. Es muss in diesem Labyrinth des Wissens einen Ariadnefaden geben, der einen ans richtige Ziel bringt. Die zweite kurzfristige Gefahr ist die angloamerikanische Dominanz, die Tatsache also, dass die Trefferliste vor allem englische Texte anzeigen wird oder solche, die aus angloamerikanischen Blickwinkel ausgewählt wurden. Was passiert, wenn ich in "Google Print" etwa nach Goethe oder Schiller suche? Die ersten zehn Bücher sind mit großer Wahrscheinlichkeit auf Englisch. Bei Victor Hugo stoßen sie nicht auf L'homme qui rit, sondern The man who laughs, was nicht sehr komisch ist, selbst wenn man sich für Übersetzungen interessiert. Ich verlange ja kein Monopolfür unseren Blick, ich will nur, dass er nicht untergeht. Ist die Logik von "Google Print" tatsächlich rein kommerziell? Selbstverständlich. Sie wollen doch Geld da mit verdienen. Nur verstehen sie es auf geradezu phantastische Weise ihre materiellen Interessen in ein moralisches Deckmäntelchen zu kleiden. "Wir organisieren ihnen die Information der Welt": Das ist messianisch, wunderbar, aber ich wünschte mir, wir blieben mehrere, die dieses Wissen organisieren. Es ist doch ganz einfach: Google wird an der Börse gehandelt und die Investoren verlangen, dass Gewinne abgeworfen werden. "Google Print" ist ein Kind der kapitalistischen Logik. Diese unternehmerische Logik schockiert mich nicht, sie ist großartig. Aber ich lehne ab, dass sie alles bestimmt. Ich glaube nicht an die Heiligsprechung des Marktes. Sie ist in vielen Bereichen gefährlich.
    Nun tritt die schwerfällige europäische Maschinerie gegen eine amerikanische Firma an. Ist die Schlacht, mit Verlaub, nicht von vornherein verloren? Überhaupt nicht! Zumal es doch nicht um viel Geld geht. Google rechnet mit einem Budget von 150 Millionen Dollar. Meiner Ansicht nach ist das zu wenig. Aber selbst wenn es 300 Millionen wären. In Paris wird dieser Tage das Grand Palais wieder eröffnet, dessen Restaurierung allein 200 Millionen Euro gekostet hat. 23 EU Staaten haben ihre Unterstützung zugesichert. Aber ehe sich die Brüssler Maschinerie in Bewegung setzt, wird "Google Print"den Europäern doch schon davongelaufen sein... Moment einmal, wir fangen doch nicht bei Null an. ln Frankreich gibt es das Projekt Gallica. Jährlich stecken wir zwei Millionen Euro in Digitalisierung, Millionen von Nutzern konsultieren monatlich diese virtuelle Bibliothek und in anderen Ländern gibt es ähnliche Projekte. Außerdem sind die Verantwortlichen in Brüssel wachgerüttelt wor-den. Wir müssen jetzt allerdings einen Gang höher schalten. Wie groß ist das Budget, das Ihnen in Ihren kühnsten Träumen vorschwebt? 400 Millionen Euro, verteilt auf drei, Jahre, finanziert aus Brüssel und den einzelnen Ländern, das wäre ein guter Anfang. Das Haupthindernis im Augenblick sind die Urheberrechte. Was macht man mit Büchern, deren Urheberrechte noch nicht abgelaufen sind? Eine berechtigte Frage. Google hat dieses Problem unterschätzt. Man wird es nur lösen können, wenn man sich von Anfang mit Autoren und Verlagen zusammensetzt und gemeinsam überlegt. Die Verlage sind ja nicht egoistisch. Sie sind langfristig verantwortlich für das Überleben der Literatur. Zwischen zwei genialen Büchern, zwei genialen Gemälden muss der Künstler eine Suppe kriegen. Die muss bezahlt werden. Vieles, was umsonst erscheint, wird ja auch bezahlt. Wir bezahlen Google als Konsumenten über die Werbung. Ich ziehe es vor, solche Dienste über meine Steuern oder eine Art Mediengebühr zu bezahlen. Wird mit der virtuellen Bibliothek ein Menschheitstraum verwirklicht oder handelt es sich letztlich um einen Albtraum, wie ihn Jorge Lufs Borges mit der unendlichen Bibliothek beschrieb, in der man sich wie in einem Labyrinth verirrt und nichts findet? Das ist unser Kampf, deswegen muss sich Europa einmischen, weil es eben nicht nur darum gehen kann, die Bücher zur Verfügung zu stellen, sondern sie aufgrund einer jahrhundertelangen Erfahrung zu organisieren und zu hieraichisieren. Wir dürfen nicht, wie Cyrano de Bergerac es ausdrückt, die Wörter in Büscheln hinwerfen, so wie sie gerade kommen. Wir müssen Sträuße daraus binden. Ansonsten gehen wir in diesem Ozean aus Wörtern unter. Und anstatt den Zugang zur Kultur zu erleichtern, würde wir ihn für die meisten nur erschweren."
  19. Hartknopf, A.: ¬Die Kugel für Google? : Alternative Suchwerkzeuge (2006) 0.01
    0.007848433 = product of:
      0.031393733 = sum of:
        0.031393733 = weight(_text_:und in 5733) [ClassicSimilarity], result of:
          0.031393733 = score(doc=5733,freq=36.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25991005 = fieldWeight in 5733, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5733)
      0.25 = coord(1/4)
    
    Abstract
    Das Web wächst rasant und GoogLe findet offensichtlich immer weniger. Eine Reihe raffinierter Tools will Abhilfe schaffen.
    Content
    "Für viele ist es schon Gewohnheit: Wer im Web etwas sucht, geht zu Google. Der Suchdienst hat in kürzester Zeit die Netzwelt erobert. Wer heute im Netz etwas sucht, sagt: das googel ich. Doch nicht immer ist die Inanspruchnahme des Generalisten der Weisheit letzter Schluss. Eine Anzahl von Spezialisten versucht mit witzigen Angeboten, Google die Kugel zu geben. Sicher haben Sie so etwas auch schon erlebt: Kurz vor Feierabend sind Sie beim halbberuflichen Surfen auf eine supertolle Site mit Tipps zur Marathon-Vorbereitung gestoßen. Abends geben Sie bei Ihren Lauffreunden damit an. Die lachen Sie später aus, weil sie von den tollen Informationen nichts gefunden haben. Die Inhalte des Web ändern sich manchmal rasant schnell und vor allem zu unvorsehbaren Zeitpunkten. Wer nicht Gefahr laufen möchte, stundenlang mit wachsender Verzweiflung nach Inhalten zu suchen, von denen nur noch das persönliche Gedächtnis eine vage Ahnung behalten hat, kann jetzt bei Yahoo ein eigenes Webarchiv anlegen. Die "Mein Web" genannte Funktion speichert mit einem Wort gesagt die gefundenen Webseiten für Sie und macht sie so dauerhaft verfügbar. Gegen das Vergessen Nach der Anmeldung bei Yahoo ist dieser Dienst kostenlos nutzbar. Sie können in "Mein Web" Ordner anlegen und Ihre Lesezeichen so sortieren. Unterordner sind derzeit leider nicht möglich. Wer möchte, kann seine Browser-Lesezeichen importieren. Das funktioniert mit den Bookmarks von Internet Explorer, Firefox und Netscape. Auf diese Weise sind die Favoriten von jedem Internet-fähigen Rechner aus zugänglich. Über die Yahoo-Toolbar oder ein leicht zu installierendes Bookmarklet lassen sich von beliebigen StelLen im Web nun Seiten zu "Mein Web" hinzufügen. Yahoo macht eine Kopie des HTML-Codes und archiviert sie im gewünschten Ordner. Oder Sie benutzen die Yahoo-Suchmaske und speichern Treffer direkt aus der Ergebnisliste heraus. Sie können die gespeicherten Seiten nach Datum, Titel, URL und Art der Suche durchsuchen. Außerdem lassen sich beliebige Gruppen von Treffern veröffentlichen, sodass jeder über eine maskierte ID, die seine privaten Ordner schützt, darauf zugreifen kann. Unerwünschte Ergebnisse können blockiert werden und verschwinden so bei künftigen Suchen aus den Ergebnissen. Leider speichert "Mein Web" nur den HTMLCode der archivierten Seiten. Es kann also gut sein, dass verlinkte Bilder, Frames, Flash-Animationen usw. später nicht mehr verfügbar sind. Auch mit der richtigen Wiedergabe der gespeicherten Seiten tut sich das noch in der Betaphase befindliche "Mein Web" mitunter schwer. Beim ersten Ausprobieren wurde aus manchem Layout ein befremdliches Durcheinander. Vor allem deshalb begeistert der an sich sinnvolle Dienst noch nicht vollends.
    Dranbleiben Der amerikanische Dienst PubSub verkörpert gewissermaßen die Gegenidee zu Yahoos Seitenspeicher. Bei PubSub geht es in erster Linie darum, über neue Treffer zu einer Suchanfrage informiert zu werden. Google und andere Suchmaschinen sammeln Webseiten, um sie bei Suchanfragen zur Verfügung stellen zu können. PubSub sammelt Suchanfragen, um für diese zutreffende Seiten zur Verfügung stellen zu können. Die Treffer kommen von einer proprietären Suchmaschine, die nach eigenen Angaben über 17 Millionen Weblogs, 50.000 Newsgroups und sämtliche EDGAR-Filings umfasst. Bei letzteren handelt es sich um ein Projekt der amerikanischen Börsenaufsichtsbehörde SEC; die Online-Registratur (Electronic Data Gathering and Retrieval Project) umfasst eine Auflistung von Quartals- und Jahresberichten und den dazugehörigen Dokumenten von an der Börse notierten US-Firmen. Es handelt sich also in vielen Fällen um häufig aktualisierte Inhalte. PubSub speichert die nach einer kostenlosen Anmeldung gemachten Suchanfragen und aktualisiert die Ergebnisliste, sobald ein neuer Treffer zu den angefragten Begriffen eingetroffen ist. Aktuelle Ergebnisse lassen sich direkt auf der PubSub-Site, über einen RSS-Feed-Reader oder die für den Internet Explorer erhältliche proprietäre SideBar abfragen. Die im Grunde gute Idee führt jedoch (noch) zu bescheidenen Ergebnissen. Eine Sprachauswahl (vergleichbar Googles "Seiten auf Deutsch") ist nicht vorgesehen. Deutschsprachige Suchanfragen scheinen insgesamt so gut wie sinnlos. Selbst auf die Anfrage "George Bush" kamen auf den ersten Blick nur wenig relevante Treffer. Es bleibt also, wenigstens für Deutsch sprechende Nutzer, vorläufig fraglich, ob der noch junge Dienst wirklich zu einer sinnvollen Ergänzung zum Prinzip der Suchmaschinen beitragen wird.
    Das geht tief Ein kleiner Mythos wird häufig aus dem so genannten "deep web" gemacht. Gemeint sind damit all jene Inhalte, die Suchmaschinen niemals listen, weil ihre Crawler sie nicht erreichen - hauptsächlich aus Datenbanken dynamisch generierte Contents und damit eine riesige Menge von Seiten. Bis zu 500-mal größer soll das "unsichtbare" Web sein. Der Suchdienst Complete Planet will beim Entdecken des Verborgenen helfen. Er listet derzeit 70.000 Datenbanken in über 40 Kategorien von "Agriculture" bis "Weather". Zu jedem Angebot gibt es eine englische Zusammenfassung. Da es jedoch praktisch kaum machbar ist, die teilweise über 100 Datenbanken zu einem Thema auf diese Weise abzuarbeiten, lassen sich die Beschreibungstexte nach Stichworten durchsuchen. Diese Suche lässt sich auf die gesamte Complete-Planet-Datenbank ausweiten oder auf eine Kategorie beschränken. Wie häufig sind auch hier diejenigen im Vorteil, die ihre Infos aus dem englischen Sprachraum beziehen können. Turbo10 ist ein Suchdienst, der nach eigenen Angaben 804 "deep net engines" abfragt, über die zunächst wenig Genaues zu erfahren ist. Die sparsam aufgemachte Site schmeißt auch sonst nicht gerade mit Selbstauskünften um sich. Dafür bietet sie ein sehr übersichtlich organisiertes Ergebnisfenster. Die Ergebnisse werden nach "Clustern" sortiert: Zum Suchbegriff "dvd brenner" etwa lieferte Turbo10 u. a. die Kategorien "hardware", "shops" oder "tests". Auch die abgefragten Suchdienste lassen sich hier mit der Zahl ihrer Treffer auflisten. Interessant ist die Möglichkeit, sich aus der Liste dervon Turbo10 genutzten Suchmaschinen eine eigene Kollektion zusammenzustellen. Dazu muss der Benutzer allerdings seine E-Mail-Adresse herausrücken. Für die tiefgehenden Anfragen wird außerdem einiges an kostenpflichtiger Software angeboten, die das Suchen erleichtern soll.
    Im deutschsprachigen Bereich betätigt sich zum Beispiel Bingooo in diesem Feld. Spezialisierte 'Agenten' fragen Informationen aus Bereichen wie Einkaufen, Reisen, Wissen oder Nachrichten ab und geben sie aufbereitet wieder. Eine Trial-Version der Anwendung ist kostenfrei verfügbar. Das mit zusätzlichen Funktionen ausgestattete Programm kostet rund 57 Euro. Viel bekommen Als Beispiel einer Meta-Suchmaschine sei der Metaspinner erwähnt. Metaspinner richtet Ihre Anfrage an 18 einzelne Suchdienste, darunter Alltheweb, Altavista, T-Online (Google) und Yahoo. Wer möchte, kann aus diesen Diensten eine Auswahl treffen. Außerdem finden sich direkt in der Suchmaske Buttons zum Einbeziehen von Wikipedia, eBay, Preispiraten und Amazon in die Suche. Auf Wunsch lassen sich die Ergebnisse in Kategorien sortieren. Durch die zahlreichen Konfigurationsmöglichkeiten wirkt der Metaspinner einem typischen Problem der Metasuchmaschinen entgegen: Werviele Dienste anfragt, bekommt viele Ant-worten. Die manchmal sowieso schon mühevolle Suche nach brauchbaren Treffern kann bei Mehrfachanfragen nämlich noch mühevoller werden. Google ist also nicht alles. Es gibt im Netz eine Reihe von Tools, die vor allem bei Spezialinteressen oder-fragen helfen. Vieles davon ist jedoch auf das englischsprachige Web konzentriert. Für viele Einzelfragen schadet es nach wie vor nicht, die entsprechenden Datenbanken zu kennen. Neue Angebote wie Yahoos "Mein Web" weisen in eine interessante Richtung, sind aber noch verbesserungswürdig."
  20. Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006) 0.01
    0.007848433 = product of:
      0.031393733 = sum of:
        0.031393733 = weight(_text_:und in 5885) [ClassicSimilarity], result of:
          0.031393733 = score(doc=5885,freq=36.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25991005 = fieldWeight in 5885, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5885)
      0.25 = coord(1/4)
    
    Abstract
    Google und Co. sind auf dem Weg in die Sackgasse. Die Zukunft gehört der Suche mit Intelligenz und Bedeutung. Denn dann hat die Suche Sinn und Verstand
    Content
    "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
    Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
    Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"

Languages

  • d 4221
  • e 486
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 219
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • p 1
  • More… Less…

Themes

Subjects

Classifications