Search (11762 results, page 557 of 589)

  • × language_ss:"d"
  1. Siegle, J.: Programmabsturz : Immer mehr Internet-Zeitschriften stehen vor dem Aus - jüngstes Opfer ist das US-Magazin 'The Industry Standard' (2000) 0.01
    0.0065236627 = product of:
      0.02609465 = sum of:
        0.02609465 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.02609465 = score(doc=494,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.22054097 = fieldWeight in 494, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=494)
      0.25 = coord(1/4)
    
    Abstract
    Die Web-Revolution frisst ihre Kinder. Reihenweise sind in den vergangenen Monaten viel versprechende Dotcom-Unternehmen eingegangen. Zahllose hoch dotierte Mitarbeiter haben ihren Job verloren. Und auch in der Internet-Presse sind im Zuge stark rückläufiger Anzeigenumsätze zahlreiche Pleiten zu beklagen. Jüngstes Opfer ist das US-Magazin "The Industry Standard". Diese Woche erschien die vorerst letzte Ausgabe des renommiertesten amerikanischen New-Economy-Blattes. Der San Franciscoer Verlag Standard Media International steht vor der Zahlungsunfähigkeit und wird voraussichtlich Gläubigerschutz beantragen - was in etwa dem deutschen Insolvenzverfahren entspricht. Zuvor waren Finanzierungsgespräche mit dem Hauptanteilseigner, der Bostoner Verlagsgruppe International Data Group (IDG), gescheitert. Bis auf eine Minimannschaft von sechs bis 20 Mitarbeitern, die weiterhin die Online-Ausgabe des Magazins produzieren sollen, verlieren alle 180, Angestellten ihren Job. Das Gros der Mitarbeiter war vergangene Woche vorsichtshalber schon mal in den Zwangsurlaub geschickt worden. Die Standard-Pleite kommt nicht ganz überraschend: Bereits im Februar hatte das Flaggschiff der amerikanischen New-Economy-Medien im Zuge des rückläufigen Anzeigenaufkommens 69 Angestellte entlassen müssen. Im Januar war eine erste Massenkündigungswelle erfolgt. In den vergangenen Monaten hat sich die Situation nun nochmals deutlich zugespitzt. Seit Jahresbeginn ist die Zahl der gebuchten Anzeigen um 75 Prozent gefallen. Den drastischen Werberückgang dokumentierte der beständig schwindende Umfang des Wochenmagazins: Im Februar 2000 zählte der Standard noch stolze 228 Seiten. Dieses Frühjahr kam das Heft gerade noch auf 120 Seiten, Mitte Mai nur noch auf 80. Kein anderes Internet-Magazin hat den dramatischen Aufstieg und Niedergang der Online-Ökonomie so durchlitten wie der Industry Standard.
    Im April 1998 gegründet, etablierte sich die Zeitschrift schnell als das Sprachrohr der boomenden Netz-Welt. Schier unendlich schien der Fundus an Erfolgsgeschichten über die aufstrebende Internet-Szene. Die WerbeIndustrie bescherte dem jungen Verlagshaus binnen kürzester Zeit Anzeigenrekorde: Vergangenes Jahr konnte das WebBlatt rund 7 600 Anzeigenseiten verkaufen. Das Unternehmen erwirtschaftete damit ein Plus von 140 Millionen US-Dollar und überschritt innerhalb von nur drei Jahren die Geweinnschwelle - ein seltenes Kunststück im Magazin Geschäft. Brachnetypisch schmiss die San Franciscoer Redaktion dutzende opulente Partys. Zur Hochphase beschäftigte das Medienhaus immerhin rund 400 Mitarbeiter, darunter etwa 130 Redakteure. Im Oktober vergangenen Jahres wurde auch eine EuropaAusgabe gestartet, die von 60 Angestellten in London produziert wurde. Auch journalistisch wurde die Arbeit des Standard mehrfach ausgezeichnet. Mit dem Absturz der New Economy verdüsterten sich in jüngster Vergangenheit die Schlagzeilen in der Internet-Presse. Immer regelmäßiger berichtete die NetzPostille nun über Massenentlassungen, Pleiten, Pech und Pannen in der Dotcom-Industrie. Die Werbungstreibenden reagierten mit Etatstreichungen. Zudem gingen viele Standard-Anzeigenkunden aus dem Online-Lager pleite. Dasselbe Schicksal ereilt nun das Internet-Zentralorgan aus San Francisco. Nachdem seit Januar ein Verlust von 50 Millionen US-Dollar erwirtschaftet wurde, haben die Standar-Investoren um die Verlagsgruppe IDG (PC World, Macworld, Computerworld, Infoworld) den Stecker gezogen.
    "Wir sind sehr enttäuscht, dass unsere finanzielle Situation diese Maßnahmen erfordert. Wir hoffen dennoch weiter, dass wir unsere Aktiva verkaufen können", ließ Standard Media International in einer Pressemitteilung verlauten. IDG kommentierte den Rückzug bislang nicht. Der Standard ist kein Einzelfall. Seit Monaten leiden auch amerikanische Konkurrenzblätter wie Red Herring oder Wired unter der Werbeflaute. Red Herring verschlankte sich binnen eines Jahres etwa von 350 Seiten Umfang auf 120 Seiten und musste bereits Ende vergangenen Jahres mehr als 20 Angestellte entlassen. Die Kult-IT-Bibel Wired konnte zu ihren besten Zeiten allein dem Inhaltsverzeichnis 72 Anzeigenseiten vorschalten. Ein Stapel der sechs wichtigsten amerikanischen Internet-Magazine - die alle aus San Francisco stammen - hatte im Juni vergangenen Jahres rund, fünf Kilogramm gewogen. Aktuelle Ausgaben von Wired, eCompany, Red Herring, Business 2.0, Upside und eben The Industry Standard bringen nun zusammen nicht mal mehr die Hälfte auf die Waage. In Deutschland ist die Situation der Web-Medien nicht besser: In den vergangenen Wochen mussten neben dem Milchstraßen-Titel Net-Business die zwei Münchner Objekte Business 2.0 und NetInvestor sowie die Handelsblatt-Publikation E-Business aufgeben. Die Zeitschriften eMarket und Tomorrow haben jüngst ihren Veröffentlichungsrhythmus halbiert: eMarket erscheint nur noch zweiwöchentlieh, Tomorrow nur noch monatlich. Bei Standard Media International in San Francisco sucht man derweil nach einem Käufer für den jetzt höchst defizitären Industry Standard. Die Online-Ausgabe der einstigen Cash-Cow", TheStandard.com, soll bis auf weiteres in einer abgespeckten Version weitergeführt werden. Amerikanischen Medienberichten zufolge sollen im Verlag sogar Pläne für die Wiederbelebung eines völlig neukonzipierten Magazins geschmiedet werden
  2. bay/mo: ¬Das Internet holt die Telefonwelt ein : Plaudern über die Datenleitung interessiert viele Cebit-Besucher - die Technik hilft, Geld zu sparen und treibt den Wettbewerb an (2004) 0.01
    0.0065236627 = product of:
      0.02609465 = sum of:
        0.02609465 = weight(_text_:und in 3170) [ClassicSimilarity], result of:
          0.02609465 = score(doc=3170,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.22054097 = fieldWeight in 3170, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3170)
      0.25 = coord(1/4)
    
    Content
    "Wenn Telefongesellschaften ihre Netze auf das Übertragungsprinzip des Internets umstellen - warum sollte man dann nicht gleich die Datenleitungen zum Telefonieren verwenden? Eine naheliegender Gedanke, der auf der Cebit viele Besucher begeistert. Voice over IP, die technische Bezeichnung des Verfahrens, hat sich unvorhergesehen zu einem Trend der Messe entwickelt. Erste Angebote, mit denen Privatleute unter Umständen ihre Telefonrechnung senken könne, liegen vor. Richtig los gehen wird es wohl erst im Sommer. Mit Voice over IP kann der herkömmliche Telefonkanal entfallen. Nötig ist nur die breitbandige DSL-Leitung. Über die geht die Sprache in From von Datenpaketen zum Internetprovider. Der prüft in einer Kartei, ob der Angerufene ebenfalls per Datenleitung erreichbar ist. Falls ja, stellt er das Gespräch durch - in der Regel kostenlos, weil nur das interne Netz benötigt wird. Ist der Partner nur analog oder per ISDN angebunden, leitet der Anbieter das Gespräch ins herkömmliche Netz weiter - und verlangt dafür zeitbezogene Preise. Die liegen zumindest für nationale Festnetzverbindungen meistens unter denen der Deutschen Telekom. Allerdings ist die Umleitung bei manchen Anbietern noch teurer als Telefonate mit Call-by-call-Sparvorwahlen. - Eigene Vorwahl geplant - Die Regulierungsbehörde für Telekommunikation und Post reagiert auf die Aufbruchstimmung. Die Behörde schlägt eine Nummerngasse für "innovative Services" vor. IP-Telefonierer können daher noch für dieses Jahr damit rechnen, eine ortsunabhängige Vorwahl zu bekommen. Bisher behilft sich der Anbieter Indigo Networks für sein Projekt Sipgate mit Rufnummern aus Düsseldorf, Essen, Hamburg, Nürnberg, London und Reading. Kunden haben, unabhängig vom Wohnort, die freie Wahl.
    Die Anbieter setzen auf unterschiedliche Hardware-Konzepte. Für Sipgate müssen die Kunden etwa ein spezielles IP-Telefon für 100 Euro kaufen. Zudem benötigen sie einen DSL-Router, um Telefon und Computer gleichzeitig verwenden zu können. Die Installation gestaltet sich schwierig, wenn der Router gleichzeitig mit einer Firewall-Komponente Viren- und Hackerangriffe aus dem Internet stoppen will - denn die User müssen diese Funktion für die Leitung zum IP-Telefon ausschalten. Beim Provider Freenet klappt das Telefonieren ohne Extrageräte: Wer plaudern will, verwendet eine Software am Computer, Mikrofon und Kopfhörer. Gewichtiger Nachteil dabei: Um erreichbar zu sein, muss der Rechner stets angeschaltet bleiben. Ein Anruf ins Festnetz kostet über die Hamburger deutschlandweit einen Cent je Minute, zum Handy 19 Cent. Gespräche zu anderen "iPhone"-Kunden sind frei. Eine bequeme Lösung stellt der Berliner Hersteller AVM auf der Cebit aus: Die "Fritz Box Fon" ist DSL-Modem, Router und Voice-over-IP-Telefonanlage in einem. Daran lassen sich zwei analoge Telefone anschließen. Wird das Gerät zusätzlich mit einem ISDN-Anschluss verbunden, können Anrufer mit einem Nummerncode auf Wunsch die herkömmliche Telefonverbindung anfordern - etwa wenn die am Sonntag kostenlos sind. Freenet will die AVM-Box vermarkten, auch der Montabaurer Provider 1 & 1 setzt auf sie. Interessant kann die Datentelefonie auch für unterwegs werden. Denn die Softwarelösungen laufen in Kürze auch auf den kleinen elektronischen Assistenten (PDA). Die gehen dann per Wireless LAN online. Die Mobilfunkbetreiber, die UMTS verkaufen wollen, wird das nicht freuen. Zumal mit 1&1 Deutschlands zweitgrößter DSL-Provider (bezogen auf die Kundenzahl) in Hannover ankündigt, seine Breitbandnutzer könnten bald von ausgewählten Stellen aus zehn Stunden pro Monat kostenlos über die Funktechnik ins Internet gehen. Das Telekommunikationsunternehmen Arcor hat ähnliche Pläne.
    - Unerwartete Konkurrenz - Betreiber von Datennetzen wie Broadnet Mediascape sehen in Voice over IP eine Chance, an Privatkunden heranzukommen. Die Hamburger werben auf der Cebit mit Preisvorteilen für ihr DSL-Paket samt Datentelefonie - verglichen mit einem DSLAnschluss der Deutschen Telekom zuzüglich der Gebühren für den pauschal berechneten Internetzugang mit T-Online. Wie beispielsweise auch der Kölner Anbieter QSC mietet der Provider dazu das letzte Kabelstück zum Festpreis von der Deutschen Telekom und setzt in den Privatwohnungen eine eigene Anschlussdose. Damit könnte die Datentelefonie unverhofft den Wettbewerb auf dem Telekommunikationsmarkt beleben. "Wenn mehr Provider solche Angebote machen, muss sich die Telekom warm anziehen% sagt Ulrich Abend von bei IpTel, einer Ausgliederung der Fraunhofer Gesellschaft. Wohl vor allem wegen der neuartigen Konkurrenz aus dem Internet denkt der magentafarbene Marktführer über einen Optionstarif nach, bei dem ein einstündiges Gespräch pauschal zehn Cent kosten soll."
  3. Lehmkuhl, F.: Suchmaschinen : Griff in die Ideenkiste (2003) 0.01
    0.0065236627 = product of:
      0.02609465 = sum of:
        0.02609465 = weight(_text_:und in 5558) [ClassicSimilarity], result of:
          0.02609465 = score(doc=5558,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.22054097 = fieldWeight in 5558, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5558)
      0.25 = coord(1/4)
    
    Abstract
    Google dominiert mit einer effektiven Technologie dem Markt. Die Konkurrenz buhlt mit neuen Geschäftsmodellen und verbesserter Suche um Surfergunst
    Content
    "Die Macher der Suchmaschine Fireball wissen, was Surfer glücklich macht. Fakten, na klar, aber auch feminine Formen, vorzugsweise in Großaufnahme. Deshalb versprechen sie auf ihrer Website reichlich Detailansichten der Latinoschönheit Jennifer Lopez. Über 4000 Hingucker wirft die Software der Suchspezialisten auf Wunsch auf den Monitor: die Sängerin, knapp bekleidet, auf einem Motorrad; beim Filmkuss oder halb nackt im Strandsand. Wer will, kann gleich per Klick CDs mit Hits der Popdiva in Web-Shops bestellen. Mit frivolen Promi-Fotos, direkten Verbindungen zum Internet-Handel oder verbesserter Technik versuchen Fireball & Co., ihre leeren Kassen zu füllen und die Vorherrschaft von Google zu brechen. Das Spähprogramm der US-Firma gilt seit Jahren als effektivster Helfer beim Fahnden nach Wissen im Web. Google hat sich weltweit zum Marktführer entwickelt und hilft in Europa etwa 30 Prozent der Internet-Nutzer schnell bei der Suche", weiß Stefan Karzauninkat, Autor von suchfibel.de, einer Seite mit Erklärungen zu Suchdiensten aller Art. Die Pole-Position sichert sich das Unternehmen aus Kalifornien mit der Page-Rank-Technologie: In den Rankings landen nur Websites vorn, auf die möglichst viele Homepages verweisen. Hingegen durchforsten die Programme anderer Anbieter das Internet meist nach Schlagworten und kehren von ihren Touren oft mit kümmerlichen Ergebnissen oder gleich ganz erfolglos zurück. "Google hat mit Innovationen den Markt umgekrempelt", meint Suchmaschinenexperte Karzauninkat. Die Konkurrenz kopiert jetzt das Erfolgsmodell - in der Hoffnung, mit aufgefüllten Trefferlisten Nutzer zu gewinnen. "Wir haben von Google gelernt", gesteht Detlev Kalb, der beim Internet-Portal Lycos die europaweite Suche der Marken Fireball und Hotbot sowie auf der Lycos-Homepage verantwortet. Die überarbeitete Fireball-Seite, die noch in diesem Sommer online gehen soll, wird das Page-Rank-Popularitätskriterium integrieren und mit der eigenen aufgepeppten Technik verschmelzen. Viel versprechende Neulinge wie Teoma gehen noch einen Schritt weiter: Die Amerikaner haben das Popularitäts- um ein Expertenkriterium bereichert. Sie platzieren nur Homepages an der Spitze ihrer Link-Übersichten, die besonders viele Fachleute und Fachseiten empfehlen. "Wenn jemand etwas zum Thema Tennis wissen will, fragt er doch nicht wahllos seine ganzen Freunde", erklärt Sprecherin Alexa Rudin, "sondern solche, die etwas von dem Sport verstehen." Technische Innovationen allein freilich polieren die rot gefärbten Bilanzen nicht auf, über die fast alle Suchhelfer klagen. Viele von ihnen lassen deshalb Teile ihrer Rankings sponsern. Ganz oben finden sich die Unternehmen wieder, die am meisten zahlen. Auch Google setzt auf diese Finanzspritze. "Wir kooperieren mit 100 000 Werbetreibenden weltweit", sagt Mitgründer Sergey Brin.
    Erfolgreichster Verfechter dieses Geschäftsmodells ist Overture. Die weltweit agierende Firma mit Stammsitz im kalifornischen Pasadena erwirtschaftet das Gros ihres Umsatzes mit bezahlten Ergebnislisten. "Durchschnittlich 37 Cent bekommen wir von Firmen, wenn wir über einen Link einen unserer Nutzer an sie weiterleiten", erklärt Deutschland-Chef Manfred Klaus. Das Prinzip ist so lukrativ, dass sich Overture mit schwarzen Zahlen und kräftigen Investitionen zu einem der Hauptkonkurrenten von Google mausern konnte. So kaufte der Konzern den Daten-Guide Altavista. Für den norwegischen Suchtechnikanbieter Fast legten die Amerikaner 30 Millionen US-Dollar auf den Tisch - eine wichtige Akquisition, denn Tausende von Suchdiensten im Web arbeiten lediglich mit drei Techniken: Google, Yahoos Inktomi und Overtures Fast. Der Newcomer aus den USA sucht nun in Deutschland etwa für Seitenbesucher von T -Online, Freenet oder AOL. In die Tiefen des Web dringt jedoch keines der Systeme vor. "Auch Google kennt nur 25 Prozent des Netzes", erklärt Fachmann Karzauninkat. Weil beispielsweise viele Datenbanken ihre Türen für die großen Web-Fahnder nicht öffnen, schwenken viele Surfer auf Spezial-Suchmaschinen, etwa für Medizin oder Online-Shopping, um (siehe Kasten Seite 87). Als größte Gefahr, die exponierte Marktstellung einzubüßen, entpuppt sich für Google allerdings kein aufstrebender Widersacher, sondern neuerdings der eigene hohe Bekanntheitsgrad. Er reizt Verbreiter unerwünschter Massenwerbung. Ideales Einfallstor für sie ist die Page-Rank-Technik. "Spammer bauen Internet-Seiten, die möglichst oft aufeinander verweisen. Damit kommen sie ganz weit oben in die Trefferlisten", erklärt Stefan Karzauninkat. So stoßen Suchende bei Google nach Eingabe des gewünschten Begriffs zunehmend auf seitenweise WebsiteTipps. Gefüllt mit Marketingmüll."
  4. Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005) 0.01
    0.0065236627 = product of:
      0.02609465 = sum of:
        0.02609465 = weight(_text_:und in 177) [ClassicSimilarity], result of:
          0.02609465 = score(doc=177,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.22054097 = fieldWeight in 177, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=177)
      0.25 = coord(1/4)
    
    Content
    "Thomas Schick ist begeisterter Internetsurfer. Er nutzt das World Wide Web mehrmals täglich - sowohl beruflich als auch privat. Ich hole mir die Informationen, die ich brauche, fast nur noch aus dem Netz", so der 30-jährige Düsseldorfer. Seine Haupt-Recherchequelle ist dabei die Suchmaschine Google. "Dort finde ich einfach alles", lautet sein kurzes Statement. Wie Schick greift der Großteil der Internetnutzer weltweit auf die mittlerweile beliebteste und meist genutzte Suchmaschine zu. 200 Millionen Abrufe täglich wurden im Jähr 2004 unter www.google.com und den mehr als 85 internationalen Ablegern registriert. Sie rangiert damit weit vor den Suchmaschinen von Yahoo oder Microsoft. Angeblich sollen mehr als 70 Prozent aller Anfragen im Internet über Google laufen. Am 7. September 1998 ging die von den beiden Studenten Larry Page und Sergey Brin entwickelte Suchmaschine als Nachfolger ihrer Suchsoftware Pagerank ins Netz. Mittlerweile gehört ihre einstige Garagen-Firma mit über 3000 Mitarbeitern zu den bekanntesten Marken weltweit und ist seit August 2004 sogar an der Börse notiert. Laut "Financial Times" gehört Google - gemessen am Börsenwert - inzwischen zu den hundert größten Unternehmen weltweit. Der Name Google leitet sich von dem mathematischen Begriff Googol ab, der für eine 1 gefolgt von 100 Nullen steht - also ein riesiger Wert. Hiermit soll auf die immense Zahl von Webseiten, auf die Google zugreift, bereits im Namen hingewiesen werden. In Wirklichkeit greift Google allerdings nach Angaben des Computerverlages heise.de "nur" auf etwas mehr als acht Milliarden Seiten zu. Bei geschätzten 500 Milliarden Webseiten Weltweit macht sich diese Zahl dann doch recht klein aus. Dennoch umfasst die Google-Suche weit mehr als die anderer Suchmaschinen: Doch nicht nur eine allgemeine Text-Suche ist bei Google möglich. Es gibt auch Funktionen, die nach Bildern suchen oder auf Wörterbücher, Fahrpläne der Bahn, Stadtpläne und Aktienkurse zugreifen. Auch die Shopping-Suchmaschine Froogle oder der Freemail-Dienst Gmail gehören mittlerweile zum Angebot. Die Omnipräsenz von Google in Deutschland lässt sich allein schon daran ablesen, dass der Begriff "googeln" sogar Einzug in den guten alten Duden gefunden hat. Dort findet man den Eintrag seit der 23. Auflage (2004). "Googeln" bedeutet laut Duden im Allgemeinen etwas im Internet suchen und im Besonderen die Suche in der Suchmaschine Google. Die Marke Google ist also zu einem Synonym für Internetrecherche schlechthin geworden. Dem minimalistischen Design der Startseite ist Google bis heute treu geblieben. An bestimmten Tagen oder zu Ereignissen - so zum Beispiel an Weihnachten oder zu den Olympischen Spielen - wird das Logo allerdings zum Thema des Tages passend verändert. Diese so genannten Google Doodles ersetzen dann das normale Logo. Sie werden alle von dem Koreaner Dennis Hwang entworfen.
    Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
    Footnote
    Mit einem Foto von Larry Page (links) und Sergey Brin
  5. Martens, R.: Digital abgekupfert : Programmheft-Anbieter und Privatsender streiten um Urheberrechte im Online-Bereich (2009) 0.01
    0.0065236627 = product of:
      0.02609465 = sum of:
        0.02609465 = weight(_text_:und in 3728) [ClassicSimilarity], result of:
          0.02609465 = score(doc=3728,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.22054097 = fieldWeight in 3728, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3728)
      0.25 = coord(1/4)
    
    Content
    "Dass es Programmzeitschriften gibt wie TV Digital oder TV Spielfilm und seit vielen Jahren auch Ableger im Internet, müsste im Sinne aller Fernsehsender sein, denn die Zeitschriften bieten ihnen ja quasi eine Bühne. Seit einigen Monaten aber beschäftigt sich das Landgericht Köln mit einem Streit, der das Verhältnis zwischen den Medienpartnern langfristig schädigen könnte. Kläger ist der Verband Deutscher Zeitschriftenverleger (VDZ). Er vertritt die im Progammmagazingeschäft aktiven Verlage (vor allem Bauer, Springer, Milchstraße). Kontrahent ist die Verwertungsgesellschaft VG Media, die die Urheberrechte von 36 privaten TV-Sendern wahrnimmt. Die Gesellschaft gehört zu je 50 Prozent der RTL-Gruppe und ProSiebenSat1. Anlass des Streits ist ein Lizenzvertrag, der die Nutzung von Texten, Bildern und Trailern regeln soll, die die Sender digital bereitstellen. Dem VDZ stößt zweierlei auf: Die TV-Anbieter fordern von den Zeitschriften Geld dafür, dass sie die Basisinformationen im Internet verwenden. 0,002 Cent pro Seitenabruf sollen fällig werden. Außerdem verlangen sie, dass die Programme bei den Online-Ablegern diskriminierungsfrei dargestellt werden. Was bedeutet das? Die Verfasser des Vertrags beziehen sich auf Empfehlungen, die ARD, ZDF und der Verband Privater Rundfunk und Telekommunikation (VPRT) 2006 in einer gemeinsamen Erklärung für Electronic Program Guides (EPGs) fixiert haben. Dort heißt es, EPGs sollten ohne redaktionelle Hervorhebungen wie Tipp des Tages und "grundsätzlich werbefrei ausgestaltet werden".
    Die Öffentlich-Rechtlichen und der VPRT dürften aber kaum angestrebt haben, Regeln für die Online-Berichterstattung von Programmzeitschriften zu definieren. Vielmehr zielten die Empfehlungen auf nicht-journalistische Program Guides: Man wollte der Entwicklung Rechnung tragen, dass es im Zuge der Digitalisierung Kabelnetzbetreibern oder Geräteherstellern möglich ist, Kunden eigene Programmübersichten zur Verfügung zu stellen. Vordergründig geht es bei dem Streit um urheberrechtliche Fragen. Jenseits davon ist die Causa interessant, weil sie wieder die Diskussion anstößt, inwieweit Medienanbieter, die sich offline nicht ins Gehege kommen, im Internet miteinander konkurrieren - etwa um Werbegelder. Wenn Sender den Online-Ablegern der TV-Zeitschriften Fotos und sonstiges Material künftig nicht mehr kostenlos zur Verfügung stellen wollen, weil letztere ihre Attraktivität bei Werbekunden erhöhen können, dann muss man das nicht grundsätzlich abwegig finden. Die Frage ist allerdings, ob die Gefahr, sich selbst zu schaden, nicht ungleich größer ist, wenn man diese Informationen nicht mehr liefert. Die Forderungen der VG Media betreffen explizit nur die Online-Verwertung, sie gelten nicht für die Printmütter der Programmblätter. Es gehe darum, "Spielregeln für die Zukunft zu definieren", schließlich werde "auf mittel- bis langfristige Sicht die digitale Nutzung von Pressematerialien deutlich wichtiger als die Print-Nutzung", sagt Geschäftsführer Hans-Henning Arnold dem Branchendienst dwdl.de. Die VG Media hält ihr Anliegen deshalb für legitim, weil auch Radiosender für die Nutzung von Urheberrechten zahlen müssen - obwohl sie zweifellos für einen Tonträger werben, wenn sie einen Song spielen.
  6. MPG Presse: Wie das Gehirn Handlungen "abkupfert" (2000) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 6571) [ClassicSimilarity], result of:
          0.025933076 = score(doc=6571,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 6571, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6571)
      0.25 = coord(1/4)
    
    Abstract
    Psychologen und Hirnforscher haben gemeinsam die Grundlagen des Imitationsmechanismus im menschlichen Gehirn aufgedeckt. Offenbar besteht eine direkte neurale Verknüpfung zwischen der Wahrnehmung und der Ausführung einer Handlung. Wenn man zweimal das gleiche tut, ist es für das Gehirn nicht immer dasselbe: Ahmt man eine gesehene Bewegung nach, so werden andere Gehirnareale aktiviert, als wenn man die gleiche Bewegung auf einen symbolischen Reiz hin ausführt. Das bedeutet, daß imitative Handlungen in gesonderten Mechanismen der Hirnrinde verankert sind. Zu diesem Befund kamen Wissenschaftler des Münchner Max-Planck-Instituts für psychologische Forschung in Zusammenarbeit mit Forschern der University of California in Los Angeles (UCLA) sowie der Universität Parma (SCIENCE, 24. Dezember 1999). Andere nachahmen ist kinderleicht - so scheint es auf den ersten Blick. Doch bei näherem Hinsehen zeigt sich, daß das Phänomen Nachahmung keineswegs einfach zu verstehen ist. Denn wer nachahmt, führt dabei selbst eine bestimmte Handlung aus, die er zuvor bei anderen gesehen hat. Wie aber kann der Nachahmende wissen, welche Bewegungen er ausführen muß, um eine gleiche oder zumindest weithin ähnliche - Handlung zustande zu bringen? Oder anders gefragt: Wie können die motorischen Zentren im Gehirn Körperbewegungen hervorbringen, die denen entsprechen, die in den sensorischen Wahrnehmungszentren repräsentiert sind? Mit dieser Frage beschäftigen sich seit langem Forscher der unterschiedlichsten Fachdisziplinen. Harold Bekkering und Marcel Braß vorn Max-Planck-Institut für psychologische Forschung in München gingen das Problem aus dem Blickwinkel der Kognitionspsychologie an: Wie, so ihre Fragestellung, kann eine beobachtete Handlung in den entsprechenden motorischen Akt umgesetzt werden? Dazu lagen bisher nur tierexperimentelle Befunde vor, die eine Arbeitsgruppe unter Giacomo Rizzolatti an der Universität Parma gewonnen hatte: Sie belegten die Existenz sogenannter Mirror- oder Spiegel-Neuronen im prämotorischen Kortex von Affen, die gleichzeitig beobachtete und auszuführende Handlungen kodieren. Daraus schloß man auf einen spezifischen "lmitationsmechanismus", der wahrgenommene und auszuführende Handlungen direkt aufeinander abbildet
  7. Danowski, P.; Voß, J.: Wikipedia sammelt Metadaten (2005) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 6782) [ClassicSimilarity], result of:
          0.025933076 = score(doc=6782,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 6782, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6782)
      0.25 = coord(1/4)
    
    Abstract
    Im Rahmen der Vorbereitung auf die Wikipedia-DVD, die zur Buchmesse in Leipzig erscheinen soll, wurden fast 30.000 Artikel der freien Enzyklopädie Wikipedia mit Personendaten versehen. Damit sind die biographischen Artikel erstmals mit strukturierten Metadaten versehen, die wie alle Inhalte des Projekts unter den Bedingungen der GFDL frei weiterverwendet werden können. Die Personendaten umfassen Angaben zu Namen, Geburtsdatum, Geburtsort, Sterbedatum und Sterbeort. Gleichzeitig wird eine Kurzbeschreibung zu den einzelnen Personen gespeichert. Bisher waren diese Daten nur im Fließtext und Personennamen nur in der Form "Vorname Nachname" abgespeichert. Da auf der DVD jedoch eine gezielte Suche nach Personen möglich sein soll, müssen die Namen und anderen Angaben einheitlich, wie es in bibliothekarischen Datenbanken die Regel ist, in der Form "Nachname, Vorname" angesetzt werden. Ziel der Sammlung von Personendaten ist die dokumentarische Erschließung aller biographischen Artikel. Da wie an der gesamten Wikipedia viele Freiwillige an diesem Prozess beteiligt sind, entsprechen die Ergebnisse sicherlich noch nicht professionellen Regelwerken wie RAK. Sie sind ein erster Schritt um die Wikipedia besser automatisch weiterverwendbar zu machen und somit neue Möglichkeiten der Anwendung zu erschließen. Die Personendaten wurden zum größten Teil in einer vom Verlag Directmedia Publishing ausgerichteten "Tagging-Party" vom 28. bis 30. Januar mit Hilfe eines selbst entwickelten Softwaretools direkt in Online-Enzyklopädie eingetragen. Dazu wurden alle Artikel angeschaut und Fehler in den Datenfeldern korrigiert. Die Strukturierung der Personendaten könnte noch wesentlich durch bestehende bibliothekarische Datenbanken wie die Personennormdatei (PND) verbessert werden. Bibliotheken könnten im Gegenzug die Informationen aus der Wikipedia zur Kataloganreicherung nutzen - beispielsweise zur Anzeige von Kurzbiographien zu einzelnen Autoren. Auch weitere Kooperationsmöglichkeiten sind denkbar. Bei Interesse können Sie sich an Jakob Voss oder Patrick Danowski wenden.
  8. Janositz, P.: Taube Musiker (2001) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 922) [ClassicSimilarity], result of:
          0.025933076 = score(doc=922,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 922, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=922)
      0.25 = coord(1/4)
    
    Content
    "Wer normal hört, kann sich wohl schwer vorstellen, wie taube Menschen eine Welt erleben, die stets von Geräuschen erfüllt ist. Eine riesige, spiegelglatte Wasserfläche, die kein noch so starker Wind in Wallung bringt, könnte eine Analogie sein. Doch gerade dieses Bild wäre falsch, denn Schall breitet sich in Schwingungen aus. Unsere Welt ist voller Schwingungen. Wenn das Hörorgan funktioniert, wird die mechanische Energie der Schallechwingungen in der Hörschnecke des Innenohres in elektrische Reize umgewandelt. Über Nervenleitungen gelangen diese Signale ins Gehirn, wo sie verarbeitet und als Töne registriert werden. Menschen, bei denen dieser Vorgang gestört ist, können schlecht oder gar nicht hören, also auch keine Musik genießen, könnte man meinen. Gehörlosen Kindern Musik vorzuspielen oder gar Musiktherapie zu propagieren, erscheint sinnlos. Doch das ist ein voreiliger Schluss, der nicht die Flexibilität unseres Gehirns berücksichtigt. Denn das Denkorgan verfügt über erstaunliche Fähigkeiten, sich individuellen Anforderungen und den Gegebenheiten der Umwelt anzupassen. Dem noch sehr unvollständigen Bild von der Funktionsweise unseres Gehirns hat der US-Forscher Dean Shibata jetzt einen weiteren Mosaikstein hinzugefügt. Demnach empfinden Menschen, die taub sind, Musik ähnlich wie Personen mit intaktem Gehör. Anscheinend ist es nichtwesentlich, auf welchem Wege die Schallwellen ins Gehirn gelangen. Sie können auch mit Haut und Knochen, die nicht zum Ohr gehören, gefühlt werden. "Die von Musik hervorgerufenen Schwingungen werden bei Tauben in dem Teil des Gehirns verarbeitet, den andere Menschen fürs Hören benutzen", erklärte der Mediziner von der Universität Washington jetzt auf dem Jahrestreffen der Radiologischen Gesellschaft von Nordamerika. Die Informationen, die in Vibrationen stecken, haben demnach denselben Gehalt wie Informationen, die Töne liefern. Gehörlose können sich ebenso wie Hörende an Musik-Darbietungen erfreuen und sogar selbst musizieren. Der Radiologe fand heraus, dass bei gehörlosen Menschen ein zusätzlicher Hirnbereich beteiligt ist, wenn sie Musik empfinden. Es handelt sich um eine etwa golfballgroße Region, die bei Menschen mit Intaktem Gehör passiv bleibt. "Diese Ergebnisse zeigen, wie veränderte Erfahrungen die Organisation des Gehirns beeinflussen können", sagt Shibata. Früher habe man angenommen, dass das Gehirn bei der Geburt praktisch fest verdrahtet sei und dass ein bestimmter Teil immer dieselbe Funktion habe. "Glücklicherweise" - so der Radiologe - bestimmten nicht ausschließlich die Gene die "Verkabelung" des Gehirns. Sie geben nur die Entwicklungsstrategie vor, nach der alle Teile des Gehirns mit maximalem Potenzial benutzt werden können. Shibata plädiert dafür, taube Kinder möglichst früh mit Musik zu konfrontieren, um die entsprechenden Hirnregionen anzuregen. Ähnliches scheint für das Verstehen von Sprache möglich zu sein. Hier gibt es Apparate, die helfen, die Schwingungen gesprochener Töne zu ertasten. Man sollte Kinder damit vertraut machen, solange such ihr Gehirn noch entwickele, rät Shibata."
  9. bay: Internet-Filter : Blockade-System funktioniert nicht (2002) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 1588) [ClassicSimilarity], result of:
          0.025933076 = score(doc=1588,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 1588, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1588)
      0.25 = coord(1/4)
    
    Content
    "Den Unternehmen Webwasher, Bocatel und Intranet ist es in vier Monaten nicht gelungen, dafür ein Modellsystem an der Universität Dortmund einzurichten, berichtet der Leiter des Hochschulrechenzentrums, Günter Schwichtenberg. Es fehle die Software einer der beteiligten Firmen, ergänzt die Düsseldorfer Bezirksregierung. Sie hatte den bis Ende April begrenzten Feldversuch im Dezember mit ins Leben gerufen. Die Technik sollte auch zeigen, dass sich Sperrverfügungen ohne großen Aufwand für die Zugangs-Provider umsetzen lassen - und damit zumutbar sind. Endgültig gescheitert ist das Projekt damit nicht: "Es ist absehbar, dass es gelingen kann", erläutert Schwichtenberg. Allerdings sei fraglich, wer den nötigen Entwicklungsaufwand übernimmt. Die Bezirksregierung sagt, man hoffe, dass das System bis zum Jahresende funktioniert. Die Filter-Pläne waren von Anfang an umstritten. Regierungspräsident Jürgen Büssow (SPD) beruft sich auf den Jugendschutz und betrachtet Anweisungen an Internet-Firmen, bestimmte Seiten nicht an die Surfer weiterzugeben, als Ausweg für Fälle, in denen die ausländische Urheber nicht zum Löschen von Inhalten bewegt werden können. Gegner wie der Chaos Computer Club oder die Online-Initiative Odem sprechen von Zensur, der Providerverband Eco fürchtet einen "massiven administrativen Aufwand". Entsprechend unterschiedlich fallen die Reaktionen auf das vorläufige technische Scheitern aua Büssow wünscht sich, "dass die Internet-Wirtschaft weiter nach Lösungen sucht, um eine selbstregulierende Situation, die staatliche Regulierungsmaßnahmen weitgehend überflüssig machen könnte, zu finden". Eco verweist auf seine Hotline, bei der illegale Inhalte gemeldet werden können, und die bei Bedarf mit den Strafverfolgern zusammenarbeite. Für den Chaos Computer Club kann die Konsequenz nur heißen, "dass der Zensurversuch der Bezirksregierung mit sofortiger Wirkung abgebrochen wird". Odem hat nach eigenen Angaben mehr als 10 000 Unterschriften gegen eine "Einschränkung der Informationsfreiheit" gesammelt und empfiehlt der Düsseldorfer Verwaltung zum Verständnis der Funktionsweise des Internets die "Sendung mit der Maus". Hintergrund: Die geplanten Filter lassen sich technisch einfach austricksen. Die Bezirksregierung kündigt an, nun bis Mitte Juni über die Widersprüche gegen Sperrverfügungen von 38 InternetProvidern zu entscheiden. Die Deutsche Presse Agentur zitiert Büssow, er werde die Widersprüche zurückweisen. Es geht dabei um die Blockade von zwei US-Seiten mit rechtsextremistischen Inhalten. Den Zugangsanbietern bliebe dann der Weg zum Verwaltungsgericht."
  10. Winchester, S.: ¬Der Mann, der die Wörter liebte : Eine wahre Geschichte (1998) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 1726) [ClassicSimilarity], result of:
          0.025933076 = score(doc=1726,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 1726, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1726)
      0.25 = coord(1/4)
    
    Abstract
    An einem feuchten Novembernachmittag des Jahres 1897 fährt Dr. James Murray, Herausgeber des »Oxford English Dictionary«, mit dem Zug von Oxford nach Crowthorne, Berkshire. Am dortigen Bahnhof erwartet ihn bereits eine Kutsche mit livriertem Diener, die ihn ans Ziel seiner Reise bringen wird: zu Dr. W. C. Minor, dem wohl unentbehrlichsten freiwilligen Mitarbeiter an dem monumentalen Wörterbuch-Projekt. Seit fast zwanzig Jahren stehen die beiden Männer in regem Austausch über die subtilen Feinheiten der englischen Sprache, doch sind sie einander bisher nie begegnet. Nun endlich ist der Moment gekommen: Dr. Murray wird in ein über und über mit Büchern gefülltes Studierzimmer geführt, hinter dem Schreibtisch sitzt ein Mann von distinguierter Erscheinung - der Direktor der Straf- und Irrenanstalt Broadmoor, deren Insasse Dr. Minor seit vielen Jahren ist. Hat sich diese überlieferte Begegnung tatsächlich so zugetragen? Simon Winchester erzählt eine unglaubliche, aber wahre Geschichte aus dem viktorianischen England: eine Geschichte von Mord, von Genie und Wahnsinn, von Gelehrsamkeit und von der Liebe zu den Wörtern. Dem Autor ist etwas außerordentliches gelungen: ein literarisches Sachbuch zu schreiben, das so spannend ist wie ein Thriller und das gründliche Recherche mit ungewöhnlichem Sprachgefühl verbindet. Doch vor allem ist dies die sehr bewegende Geschichte eines verletzten, einsamen Menschen, dem die Wörter aus der Isolation seiner Zelle eine Brücke in die Weit bauen
  11. Pasch, R.: Mit Sex zur CDU gelockt : Ortsverband operierte mit fragwürdigen Begriffen im Internet (2002) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 1861) [ClassicSimilarity], result of:
          0.025933076 = score(doc=1861,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 1861, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1861)
      0.25 = coord(1/4)
    
    Content
    Ein Bibliothekar aus Magdeburg stieß beim Surfen im Internet darauf, dass man beim Eingeben der Begriffe "Sex" und "Judenvernichtung", aber auch bei Worten wie "Stalingrad" und "Lenin" oder "Pille" und "Reißverschluss" auf den CDU-Seiten landen konnte. Der Mann wandte sich daraufhin an die Presse. Ortsverbandsvorsitzender Hochapfel bemühte sich am Freitag um Schadensbegrenzung: "Es tut mir leid." Die Idee für die Liste stammt von Rolf von Briel, Vorstandsmitglied der Fuldataler CDU und für die Erstellung der Internet-Seiten verantwortlich. Er habe laut Hochapfel auf eine Liste der Gesellschaft für Deutsche Sprache zurück gegriffen, in der die meist benutzten Begriffe der vergangenen hundert Jahre enthalten seien. Und darunter befanden sich eben auch solche "mit denen wir gar nichts zu tun haben wollen", wie Hochapfel versicherte. Waren "Bioladen" oder "Pop" eher unverfänglich, führten bisher auch Begriffe wie "Deportation" oder "Führer" auf die Fuldataler CDU-Seiten. Über solche - auf Internetseiten im Normalfall unsichtbaren - Schlüsselbegriffe (Keywords) wird die Verbindung zu den Suchmaschinen hergestellt. Der Inhalt der Keyword-Liste entscheidet, an welcher Stelle eine Seite in den Ranglisten einer Suchmaschine auftaucht. In seinem Eifer, möglichst viele Surfer anzulocken, sei von Briel allerdings etwas zu "unkritisch" vorgegangen, tadelte der Vorsitzende Hochapfel am Freitag das fehlende Gespür seines Parteifreundes. Der Inhalt der CDU-Seiten selbst ist allerdings eher nüchtern: Informationen über die Partei, Bilder vom Vorstand, Wahlkampfparolen. Autor von Briel wollte sich am Freitag nicht zu seinem Vorgehen äußern. Über mögliche Konsequenzen für den virtuellen Fehltritt des Parteimitglieds solle bei einer Vorstandssitzung entschieden werden, sagte Hochapfel."
  12. Klems, M.: Finden, was man sucht! : Strategien und Werkzeuge für die Internet-Recherche (2003) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 2719) [ClassicSimilarity], result of:
          0.025933076 = score(doc=2719,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 2719, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2719)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: FR Nr.165 vom 18.7.2003, S.14 (T.P. Gangloff) "Suchmaschinen sind unverzichtbare Helferinnen für die Internet-Recherche Doch wenn die Trefferliste zu viele Links anbietet, wird die Suche schon mal zur schlafraubenden Odyssee. Wer angesichts umfangreicher Trefferlisten verzweifelt, für den ist die Broschüre Finden, was man sucht! von Michael Klems das Richtige. Klems klärt zunächst über Grundsätzliches auf, weist darauf hin, dass die Recherchehilfen bloß Maschinen seien, man ihre oft an Interessen gekoppelten Informationen nicht ungeprüft verwenden solle und ohnehin das Internet nie die einzige Quelle sein dürfe. Interessant sind die konkreten Tipps - etwa zur effizienten Browsernutzung (ein Suchergebnis mit der rechten Maustaste in einem neuen Fenster öffnen; so behält man die Fundliste) oder zu Aufbau und Organisation eines Adressenverzeichnisses. Richtig spannend wird die Broschüre, wenn Klems endlich ins Internet geht. Er erklärt, wie die richtigen Suchbegriffe die Trefferquote erhöhen: Da sich nicht alle Maschinen am Wortstamm orientierten, empfehle es sich, Begriffe sowohl im Singular als auch im Plural einzugeben; außerdem plädiert Klems grundsätzlich für Kleinschreibung. Auch wie Begriffe verknüpft werden, lernt man. Viele Nutzer verlassen sich beim Recherchieren auf Google - und übersehen, dass Webkataloge oder spezielle Suchdienste nützlicher sein können. Klems beschreibt, wann welche Dienste sinnvoll sind: Mit einer Suchmaschine ist man immer auf dem neuesten Stand, während ein Katalog wie Web.de bei der Suche nach bewerteter Information hilft. Mets-Suchmaschinen wie Metager.de sind der Joker - und nur sinnvoll bei Begriffen mit potenziell niedriger Trefferquote. Ebenfalls viel versprechende Anlaufpunkte können die Diskussionsforen des Usenet sein, erreichbar über die Groups-Abfrage bei Google. Wertvoll sind die Tipps für die Literaturrecherche. Eine mehrseitige Linksammlung rundet die Broschüre ab"
  13. Karzaunikat, S.: Google zugemüllt : Spam überschwemmt die Suchergebnisse (2003) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 2963) [ClassicSimilarity], result of:
          0.025933076 = score(doc=2963,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 2963, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2963)
      0.25 = coord(1/4)
    
    Content
    Die Suche mit Google, früher meist auf Anhieb erfolgreich, bereitet in letzter Zeit zunehmend Frust. Sucht man zum Beispiel mit den Begriffen "kfz kaufen lüneburg" nach Autohändlern in der Heidestadt, erhält man als ersten Treffer eine Site, die laut Inhaltsangabe in der Trefferliste die Begriffe "Eu-Auto Neuwagenmarkt kaufen Reimport-Auto Fahrzeug" enthält. Als Adresse gibt die Suchmaschine eu-reimport-auto.department1.de/kaufen/ an. Doch dieser Treffer passt nur scheinbar gut zu der Anfrage. Klickt man nämlich auf den Link, landet man nach mehreren Weiterleitungen auf verschiedenen anderen Sites, meistens auf einer allgemeinen Startseite von eBay, http://pages.ebay. de, auf der man dann vergeblich nach "lüneburg" und "kfz" Ausschau hält. Sucht man mit der Abfrage "diascanner test" nach Diascanner-Vergleichen, dann führt der erste Treffer zur Ergebnisseite einer anderen Suchmaschine namens Biveroo mit nutzlosen Verweisen, obwohl der Link angeblich auf die Site www.sisira.de führen soll. Die zweite Site in der Trefferliste listet unter der Domain diascanner.org eBay-Auktionen und Links des Pay-forPerformance-Anbieters Espotting - also gekaufte Links, Werbung. Testberichte? Auch hier Fehlanzeige. Insgesamt finden sich unter den ersten zehn Verweisen nur drei relevante. Surfer erhalten bei Google-Recherchen im Umfeld von Produkten und Dienstleistungen immer mehr unbrauchbare oder in anderer Weise ungewöhnliche Treffer: Webseiten, die mit der Abfrage kaum etwas zu tun haben, zum Teil nicht einmal den Suchbegriff enthalten, wirre Linksammlungen oder gar Ergebnisseiten anderer Suchmaschinen. Mitunter landet man nach dem Klick auch bei einer anderen Adresse, als Googie in seiner Ergebnisliste angibt. Immer seltener finden sich neutrale Informationen; statt dessen landet der Surfer immer häufiger in irgendwelchen Online-Shops oder auf E-Commerce-Portalen. Verseuchte Ergebnisse Die Verseuchung der GoogleSuchergebnisse durch aufdringliche Geschäftemacherei ist findigen Tricksern zu verdanken. Sie haben Wege gefunden, bei immer mehr Suchanfragen ihre Links unter den ersten Treffern zu platzieren. So fällt nun auch Google einer Entwicklung anheim, die viele andere Suchdienste bereits vor Jahren heimgesucht und weitgehend unbrauchbar gemacht hat. Dabei galt doch der geniale Google-Algorithmus zur Bestimmung der Trefferrelevanz ("Ranking") lange Zeit als immun gegen Manipulationsversuche. Der Suchmaschinenprimus zieht nicht nur die in den HTMLSeiten enthaltenen Schlüsselwörter heran, wie es die Suchdienste in der Vor-Google-Ära taten. Stattdessen bestimmen bei Google vor allem Verweise fremder Seiten und damit die Wertschätzung durch andere Webmaster darüber, welche Position eine Website in der Trefferliste erhält. Aber nicht nur die bloße Anzahl der Links, sondern auch der Rang der verweisenden Website fließt in die Bewertung ein. Daraus errechnet Google den so genannten Page Rank, benannt übrigens nach dem Erfinder Larry Page [11. Jedermann kann sich mit der erweiterten Version der Google-Toolbar für den Internet Explorer den Page Rank beliebiger Seiten anzeigen lassen.
  14. Funk, V.: Wirbel um Sperrung von Wikipedia : Linken-Politiker Heilmann geht gegen Online-Lexikon vor - und gibt dann doch klein bei (2008) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 2976) [ClassicSimilarity], result of:
          0.025933076 = score(doc=2976,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 2976, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2976)
      0.25 = coord(1/4)
    
    Content
    "Erst ließ er tagelang die deutsche Startseite des Online-Lexikons Wikipedia sperren, dann zog er sich kleinlaut zurück: Lutz Heilmann, Bundestagsabgeordneter der Linken. Mit der weltweiten Community der Wiki-Fans und Autoren angelegt hatte er sich wegen vier angeblicher Falschbehauptungen über ihn in der Internet-Enzyklopädie. Heilmann erwirkte am vergangenen Donnerstag gerichtlich eine Einstellung der Weiterleitung von wikipedia.de zu de.wikipedia.org. Wer am Wochenende dort schnell mal etwas nachschlagen wollte, stieß auf eine Wand: "Mit einstweiliger Verfügung des Landgerichts Lübeck (...), erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, 'die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten'". Nur über Umwege gelangte man zu den Inhalten. Am Sonntag erklärte Heilmann dann überraschend seinen juristischen Clinch mit dem Verein Wikimedia Deutschland für beendet. Die "falschen" Inhalte seien weitgehend aus dem entsprechenden Wikipedia-Artikel entfernt worden. Heilmann hatte sich schon mehrfach über den Artikel zu seiner Person auf Wikipedia geärgert. Diesmal ging es um vier Punkte, erklärte der Anwalt von Wikimedia Deutschland, Thorsten Feldmann, der FR, ohne weitere Details nennen zu wollen. Ein möglicher Streitpunkt: die Stasi-Vergangenheit des 42-jährigen Juristen Heilmann. Er hatte, nach Angaben auf seiner Bundestags-Website, im Personenschutz der Stasi von 1985 bis 1990 gedient - unklar bleibt, von wann bis wann genau. Bei der Nominierung zur Kandidatur für die Bundestagswahl 2005 hatte er dies nicht erzählt, ein "Fehler", sagte er später, nachdem Medien ihn darauf ansprachen.
    Medienhype zwingt vermutlich zum Rückzug Der Sperre per einstweiliger Verfügung ging eine Abmahnung durch Heilmanns Anwälte voraus. "Unsere Erklärung zu den einzelnen Punkten der Abmahnung ist dem Gericht beim Antrag auf die einstweilige Verfügung vorenthalten worden", kritisiert Feldmann. Die Streitpunkte rechtfertigten eine Sperrung der Seite auf gar keinen Fall. Vermutlich war es nicht das Argument des Wiki-Anwaltes, das Heilmann Sonntagfrüh eines besseren belehrte, sondern der Medienhype, den er mit seiner Attacke auslöste. Heilmann zog gesenkten Hauptes vor die Online-Community und schrieb in einer Pressemitteilung: "Ich bedaure außerordentlich, dass durch die von mir beantragte einstweilige Verfügung des Landgerichts Lübeck die deutschen Wikipedia-Userinnen und -User in den letzten 24 Stunden keinen direkten Zugriff mehr auf die Wikipedia-Inhalte hatten." Am Samstag hatte sich die Nachricht über die Sperre schnell in diversen Online-Publikationen verbreitet. Doch wirklich weh tun wird Heilmann in Zukunft etwas anderes: Seine Aktion ist bereits unter anderem auf der englischen, polnischen und dänischen Seite von Wikipedia dokumentiert. So wird sein juristischer Schnellschuss auch in Zukunft ein Abschnitt in seiner Wiki-Biographie bleiben."
  15. Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 3061) [ClassicSimilarity], result of:
          0.025933076 = score(doc=3061,freq=40.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 3061, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3061)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
    Content
    "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
    Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
    Imprint
    Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
  16. Honnigfort, B.: Polizeifehler verlängerte Stephanies Leid : Sächsische Ermittler geben Panne im Entführungsfall zu - Beamter suchte in der falschen PC-Datei (2006) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 3128) [ClassicSimilarity], result of:
          0.025933076 = score(doc=3128,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 3128, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3128)
      0.25 = coord(1/4)
    
    Content
    "Sachsens Innenminister Albrecht Buttolo (CDU) und Landespolizeipräsident Klaus Fleischmann gaben am Dienstag in Dresden einen Ermittlungsfehler zu. Womöglich hätte der Entführer der 13-Jährigen ohne das Versehen früher enttarnt werden können. Der Name des mehrfach vorbestraften Mannes war demnach im Computer der Polizei gespeichert, auch sein aktueller Wohnort. Die Polizei überprüfte etliche Vorbestrafte in der Umgebung des Elternhauses. Allerdings nicht den 35-Jährigen, der Stephanie tatsächlich entführt hatte. Der Grund, so Polizeipräsident Fleischmann, sei ein Computeranwenderfehler gewesen. Ein Ermittlungsbeamter habe unter der aktuellen Rubrik "Sexualstraftaten" gefahndet, nicht aber unter der Rubrik "sexuell motivierte Straftaten`, einer Datei, die bis Herbst 2002 Namen und Adressen von Tätern führte, darunter den Namen des Entführers. Hätte der Beamte auch in die zweite Datei gesehen, wäre der Polizei womöglich der Täter aufgefallen, der ganz in der Nähe des Mädchens wohnte. "Ein Mann hat falsch geklickt"; beschrieb Fleischmann den kleinen Fehler mit der großen Wirkung. Der vorbestrafte Sexualtäter hatte Stephanie mutmaßlich am 11. Januar auf dem Weg zum Gymnasium verschleppt, dann 36 Tage in seiner Wohnung in einer Kiste gefangen gehalten und mehrmals sexuell misshandelt. Am 16. Februar befreite die Polizei das Mädchen, nachdem ein Fußgänger ihren Hilferuf auf einem Zettel gefunden hatte. Sachsens Innenminister Buttolo sagte am Dienstag: "Ein Alptraum, wenn man sich vorstellt, dass dieses Sexmonster Stephanie mehrfach missbraucht hat." Dem Ende der Entführung waren umfangreiche Ermittlungen vorausgegangen, wie es sie selten in Dresden gegeben hatte. Eine Sonderkommission forschte nach dem Kind, mit Hubschraubern und Hunden wurden ganze Wälder abgesucht. Viele falsche Hinweise Es habe etliche Hinweise gegeben, sagte Polizeipräsident Fleischmann. Doch kein einziger sei richtig gewesen. Fünf Wochen lang habe die Polizei nicht eine einzige Spur gehabt und nicht gewusst, ob das Mädchen entführt worden, womöglich nur von zu Hause weggelaufen oder bei einem Unfall verunglückt sei."
  17. Czepel, R.: ¬Die Geographie der wissenschaftlichen Zitierung (2003) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 3273) [ClassicSimilarity], result of:
          0.025933076 = score(doc=3273,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 3273, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3273)
      0.25 = coord(1/4)
    
    Abstract
    Ein britischer Forscher hat sich die Mühe gemacht, die geografischen Muster der Zitierungen von 1981 bis zur Gegenwart freizulegen. Das Ergebnis: Die publizistische Wahrnehmung ist in der Wissenschaft äußerst ungleich verteilt. Die USA dominieren mit großem Abstand vor dem Rest der WeIt. Und auch dort konzentrieren sich die Verweise auf einige wenige Ballungsräume der Forschung. Michael Batty vom Centre for Advanced Spatial Analysis in London bediente sich für seine Analyse der Datenbank "ISIHighlyCited.com" (http: //www.isihighlycited.com/), in der Forscher aus verschiedenen Disziplinen aufgelistet werden, die die weltweit meisten Zitate auf sich gezogen haben. In diesen Ranglisten nehmen die akademischen Edelschmieden aus den USA etwa jene Rolle ein, die Österreichische Athleten im Alpinschisport besetzen. Einzig der Forschungsraum London kann mit der Konkurrenz aus Übersee halbwegs mithalten. Der Artikel "Citation Geography: It's About Location" von Michael Batty erschien im Magazin "The Scientist" (Band 17, Heft 16/10, Ausgabe vom 25.8.03; http://www.thescientist.com/yr2003/aug/opinion 030825.html). Die Zeitschrift ist nach individueller Registrierung frei zugänglich. Der Homepage des Autors http: //www.casa.ucl.ac.uk/citations/ können weitere Details entnommen werden. Ob die Anzahl derZitate auch etwas über die wissenschaftliche Qualität aussagt, ist genau so Gegenstand von Diskussionen, wie dies etwa bei den "Impact-Faktoren" von Journalen der Fall ist (vgl. "Kann wissenschaftliche Qualität gemessen werden?", http://science.orf.at/science/news/58648). Ganz wertfrei kann man die ISI-Daten jedenfalls dazu verwenden, um herauszufinden, in welchem Land, in welcher Stadt und in welcher Institution die meist zitierten Forscher dieses Erdballs sitzen. Das Ergebnis dieser von Michael Batty erstellten "Geografie derwissenschaftlichen Zitierung" ist eindeutig: Einige Wenige ziehen den Großteil der publizistischen Aufmerksamkeit auf sich - und lassen für den Rest nur wenig über. Diese Aussage gilt gleichermaßen für Ranglisten von Städten, Institutionen und Ländern. Und: In allen drei Fällen kommen die Spitzereiter aus dem US-amerikanischen Raum.
  18. Bibliometrische Analysen - ein Beitrag für ein gerechtes Notensystem in der Forschung? : Konferenz in Jülich (2004) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 3296) [ClassicSimilarity], result of:
          0.025933076 = score(doc=3296,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 3296, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3296)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsgelder sind knapp- immer lauter wird die Frage, nach welchen Kriterien sie gerecht vergeben werden. Zunehmend in den Blickpunkt geraten dabei Methoden, mit denen die wissenschaftliche Leistung von Nationen, Forschungsinstitutionen und Wissenschaftlern scheinbar objektiv anhand ihrer Publikationen gemessen werden kann. Über die »Bibliometric Analysis in Science and Research« diskutierten 130 Teilnehmer aus fünfzehn Ländern auf einer Tagung, die das Forschungszentrum Jülich im Herbst letzten Jahres ausgerichtet hat.
    Content
    "Bibliometriker analysieren Publikationen und deren Beziehungen untereinander; ihre »Werkzeuge« sind mathematische und statistische Verfahren. Sie haben eine Reihe von Indikatoren entwickelt, die immer häufiger herangezogen werden, um wissenschaftliche Leistung zu bewerten. Einig waren sich die Teilnehmer der Jülicher Konferenz darüber, dass die bibliometrische Analyse andere etablierte Bewertungsmethoden nur ergänzen, nicht aber ersetzen kann. Zu diesen zählt beispielsweise das »peer review«, ein Gutachterverfahren: Hier entscheidet jeweils ein Gremium renommierter Fachkollegen darüber, ob ein Forschungsprojekt gefördert oder ob ein Beitrag in einer Fachzeitschrift aufgenommen werden sollte. Kritiker sind überzeugt, dass eine objektive Betrachtung nicht immer gegeben ist. Doch auch die Zitationsanalyse - eine wichtige bibliometrische Methode - ist nicht unumstritten. Wie häufig eine wissenschaftliche Arbeit zitiert wird, muss nicht unbedingt etwas über ihre Qualität aussagen: So zitiert ein Wissenschaftler die These eines Kollegen möglicherweise nur, um sie zu widerlegen. Weltweit führender Anbieter bibliometrischer Daten ist das amerikanischen Institute of Scientific Information (ISI) mit dem »Science Citation Index«, der weltweit größten Datenbank mit bibliometrisch verwertbaren Daten. Zu den bibliometrischen Indikatoren gehört auch der »Impact-Faktor«, der Auskunft darüber gibt, wie häufig die Artikel einer bestimmten Fachzeitschrift in anderen Publikationen zitiert werden. Immer wieder warnten die Tagungsteilnehmer davor, die Bedeutung dieses Faktors zu überschätzen. Ein Problem ist beispielsweise die Ver gleichbarkeit von verschiedenen Forschungsrichtungen. So haben biomedizinische Fachzeitschriften nahezu immer einen höheren Impact-Faktor als Blätter, in denen Ergebnisse aus der physikalischen Grundlagenforschung publiziert werden - ohne dass sich ein Unterschied in Qualität oder Bedeutung feststellen lässt. Der reine Vergleich des Impact-Faktors ist also nur innerhalb eines Fachgebiets möglich-alles andere hieße, Äpfel mit Birnen zu vergleichen. Die Jülicher Konferenz hat erstmals alle Beteiligten - Wissenschaftler, Forschungsmanager und Informationsfachleutezusammengebracht. Veranstaltet wurde die Tagung von der Zentralbibliothek des Forschungszentrums, einer der größten außeruniversitären Spezialbibliotheken in Deutschland. Dazu Rafael Ball, Leiter der Zentralbibliothek: »Die Forschungsförderung braucht ein Notensystem, das die Wissenschaft gerechter als bisher bewertet. Dazu kann die Informationswissenschaft mit der Durchführung bibliometrischer Analysen Hilfestellungleisten.« Fazit der Jülicher Tagung: Die bibliometrische Analyse kann einen wesentlichen, aber begrenzten Beitrag für die Evaluierung von Wissenschaft leisten. Wichtige Faktoren für den Erfolg der Bibliometrie sind eindeutige Vorgaben der Auftraggeber, Transparenz der ermittelten Daten und praxisorientierte Vorgehensweise. Bleibt als Resümee festzuhalten: Man darf die Veröffentlichungen nicht nur zählen, man muss sie lesen! - Der Proceedingsband der Tagung kann im Eigenverlag des Forschungszentrums (Kontakt: R. Relius, Forschungszentrum Jülich, Zentralbibliothek; Telefax 0 24 61/61-6103, Internet <www.fz-juelich.de/zb/verlag>) schriftlich bestellt werden."
  19. Lanvent, A.: Licht im Daten Chaos (2004) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 3806) [ClassicSimilarity], result of:
          0.025933076 = score(doc=3806,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 3806, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3806)
      0.25 = coord(1/4)
    
    Content
    "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
    Footnote
    Darin auch 2 Teilbeiträge: (1) Know-how - Suchverfahren; (2) Praxis - Windows-Suche und Indexdienst
  20. Schetsche, M.; Lehmann, K.; Krug, T.: ¬Die Google-Gesellschaft : Zehn Prinzipien der neuen Wissensordnung (2005) 0.01
    0.006483269 = product of:
      0.025933076 = sum of:
        0.025933076 = weight(_text_:und in 4488) [ClassicSimilarity], result of:
          0.025933076 = score(doc=4488,freq=10.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2191754 = fieldWeight in 4488, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4488)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen gelten bei Reisen durch den Datendschungel als nützliche Gefährten und können sogar Leben retten: Wie der Sender BBC im August 2004 berichtete, wurde der im Irak entführte Journalist John Martinkus auf Grund von Internet-Recherchen freigelassen. Die Entführer überprüften Martinkus' Aussagen per Google-Suche und stellten so sicher, dass dieser weder für ein US-Unternehmen oder den CIA arbeitet noch US-Amerikaner ist. Der australische Journalist kam mit einem gehörigen Schrecken davon; dass seine journalistischen Berichte online gelesen werden konnten, rettete ihm das Leben. Auf den ersten Blick irritiert und verwundert diese Episode zwar, beim zweiten Blick wird jedoch deutlich, dass das Internet inzwischen die Rolle ausfüllt, die Experten immer wieder prophezeit hatten: die eines globalen Gedächtnisses, einer Bibliothek menschlichen Wissens; zugänglich in allen Winkeln der Erde, gewinnt es in stets neuen - oft unvorhergesehenen - Zusammenhängen an Bedeutung. Die Internet-Recherche, da sind sich alle einig, ist heute zu einer zentralen Kulturtechnik geworden. Sie stellt ein Werkzeug dar, über das immer größere Erfahrungsbereiche des wissensgesellschaftlichen Alltags erschlossen werden. Dies verweist auf zwei andere Aspekte von Suchmaschinen: Wer das Internet mit seinen enormen Potenzialen nutzen will, kommt ohne sie nicht aus. Und das spiegelt sich zunehmend auch in ihrer wirtschaftlichen Bedeutung wider. Als börsennotierte Unternehmen besitzen sie einen enormen Wert - ohne ein anfassbares Produkt herzustellen, geschweige denn für ihre wichtigste Dienstleistung, das Suchen nach Informationen, Geld zu verlangen.
    Content
    Enthält die Kapitel: Mythos Google Wissen war gestern, googlen ist heute und die Prinzipien: 1. Die Suchmaschine als Universalschnittstelle 2. Die mediale Erschaffung der Wirklichkeit 3. Neue Wirklichkeit, neue Öffentlichkeit 4. Ungleichheit durch Gerechtigkeit 5. Unhintergehbare technische Normen 6. Wiederverzauberung der Welt 7. Die neue Ökonomie 8. Der Kampf um Aufmerksamkeit 9. Information als Transaktionsressource 10. Dissoziative UmOrdnung des Wissens

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications