Search (1421 results, page 42 of 72)

  • × theme_ss:"Internet"
  1. Lipow, A.G.: ¬The virtual reference librarian's handbook (2003) 0.01
    0.009113057 = product of:
      0.036452226 = sum of:
        0.036452226 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
          0.036452226 = score(doc=4992,freq=52.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.312373 = fieldWeight in 4992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4992)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
    Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
    Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
  2. Sixtus, M.: ¬Der Zündfunke erlischt : Der Browser "Netscape", Wegbereiter des Web, ist tot - hinterlassen hat er das Open-Source-Projekt "Mozilla" (2003) 0.01
    0.009099024 = product of:
      0.036396097 = sum of:
        0.036396097 = weight(_text_:und in 2740) [ClassicSimilarity], result of:
          0.036396097 = score(doc=2740,freq=36.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.31189203 = fieldWeight in 2740, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2740)
      0.25 = coord(1/4)
    
    Content
    "Arbeiter schrauben das Logo an der Firmenfassade ab, die zuletzt verbliebenen 58 Entwickler bekommen ihre Entlassungen. Ein Stück Internet wird Geschichte: Das Medienunternehmen AOL/Time Warner gibt Netscape auf. Damit geht nicht irgendeine Internetsoftware den Weg zum Datenfriedhof; es ist das Computerprogramm, das die explosionsartige Verbreitung des World Wide Web ermöglichte. Der Zündfunke des medialen Urknalls erlischt - und niemand scheint ihm eine Träne nachzuweinen. Wie konnte es so weit kommen? Im Jahre 1993 war das Internet noch eine Spielwiese für Datenfreaks: eine binäre Nebenwelt, die sich durch Forschungs-, Universitäts- und Militäreinrichtungen zog und von deren Existenz nur wenige wussten. Das sollte sich ändern. Der aus dem universitären Projekt NCSA-Mosaic hervorgegangene Webbrowser Netscape Navigator bescherte dem Netz eine grafische Benutzeroberfläche - und ermöglichte es so auch Personen ohne höhere Computerweihen, sich fast problemlos durch das Internet zu bewegen. Es war der Ausgangspunkt einer Medienrevolution. Das Unternehmen Netscape Communications ging am 9. August 1995 an die Börse. Am Ende des ersten Handelstags hatte sich der Aktienkurs von 28 auf 58 Dollar mehr als verdoppelt. Der Anteil am Browsermarkt wurde damals auf vier Fünftel geschätzt. Doch im gleichen Jahr brach die Epoche an, die in Internet-Geschichtsbüchern mittlerweile als "Browserkrieg" ihr eigenes Kapitel erhält. Anfang 1998 ging Spätstarter Microsoft zwar mit einigen Monopolrechtsklagen-Stacheln, sonst aber weitgehend unbeschadet als Sieger aus der zum David-gegen-GoliathKampf stilisierten Machtprobe hervor. Da nutzte es auch nichts mehr, dass Netscape-Gründer Marc Andreessen und Vorstandschef Jim Barksdale im Frühjahr 1998 die Reißleine zogen - und die Programmzeilen des Browsers veröffentlichten. Das Kalkül dabei: Freiwillige Entwickler aus aller Welt sollten helfen, seine Software zu verbessern. Das Open-Source-Projekt Mozilla.org entstand. Viele bewerteten den Schritt freilich als unternehmerischen Offenbarungseid. David hatte vor Goliath kapituliert. Ende des Jahres übernahm schließlich AOL das Unternehmen Netscape - für 4,2 Milliarden US-Dollar. Spätestens mit dem Verkauf sahen Skeptiker den Niedergang besiegelt. Sie wiesen darauf hin, AOL dürfte kaum Interesse an der Software haben, sondern sich eher für das populäre Webportal Netscape.net interessieren. Der Browser sei lediglich Drohkulisse und Joker in Verhandlungen mit Microsoft. Heute scheint es, als hätten die Schwarzseher Recht behalten. Im Rahmen eines Vergleichs, als Abschluss eines langen Kartellrechtsprozes ses, zahlte Microsoft im Mai diesen Jahres 750 Millionen Dollar an AOL - und erlaubte dem Onlinedienst, in den kommenden sieben Jahre den Internet Explorer in seine Zugangssoftware einzubauen. Netscape hatte seine Schuldigkeit getan. Es war als Faustpfand überflüssig geworden. Auch an anderer Stelle war Netscape entbehrlich: als schmückender Einband und Namenshülse für das Open-SourceProjekt Mozilla. Während im Laufe der vergangenen Jahre der unabhängige Browser mit der Echse sich zur schlanken, schnellen und leistungsstarken Alternative zum Internet Explorer mauserte - und ihn nach Ansicht vieler Experten um Längen überholt hat -, gelang es Netscape unter der AOL-Ägide stets, seine Fans mit unausgegorenen und überhastet veröffentlichten Programmversionen zu verärgern, die oft schlampig programmiert und lieblos zusammengeschustert waren - obgleich doch darin das gleiche Herz schlägt wie in Mozilla. So verwundert es kaum, dass sich der Verlustschmerz in Grenzen hält: Die meisten Netscape-Fans sind längst zur Echse gewechselt, und allseits gilt die metaphysische Sprachregelung: "In Mozilla wird Netscape weiterleben."
    Die Leguan-Entwickler finden in der nicht gewinnorientierten Stiftung Mozillafoundation ein neues Zuhause. Zur Gründung überweist AOL eine Anschubspende von zwei Millionen Dollar - ob aus alter Treue oder aus schlechtem Gewissen sei dahingestellt. Lotus-Entwickler und künftiger Vorstand Mitch Kapor steuert 300000 Dollar aus seiner Privatschatulle bei. Mit dem Linux-Distributor Redhat und dem Microsoft-Erzfeind Sun-Microsystems haben die ersten prominenten Unternehmen ihre Unterstützung zugesagt. Die alte und neue Chef-Entwicklerin Mitchell Baker übt sich bereits in unverhohlenen Kampfansagen in Richtung Microsoft: "Wir haben halt den besseren Browser, und das ist es, worum es geht." Laut der Statistiksite OnStat.com verfügt Mozilla derzeit über einen Marktanteil von 1,2 Prozent, Netscape liegt bei 2,9 Prozent. Der Microsoft Internet Explorer kontrolliert mit 95,3 Prozent den Browsermarkt nahezu alleine. Insofern erscheinen die markigen Worte aus der ReptilienFraktion zumindest mutig. Aber über die Ausgangslage ist man sich im MozillaTeam durchaus im Klaren: Nur ein Markenstreit verhinderte, dass die neue Miniversion des Browsers Firebird einen Namen bekam, in dem noch eindeutigere Symbolik mitschwingt: Phoenix. Seit dieser Woche steht die deutsche Version von Netscape 7.1 zum kostenlosen Download bereit. Für Kenner der Materie das beste Stück Software, das je das Label Netscape trug. Leider zu spät."
  3. Weilenmann, A.-K.: Fachspezifische Internetrecherche : für Bibliothekare, Informationsspezialisten und Wissenschaftler (2001) 0.01
    0.009099024 = product of:
      0.036396097 = sum of:
        0.036396097 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
          0.036396097 = score(doc=1507,freq=36.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.31189203 = fieldWeight in 1507, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1507)
      0.25 = coord(1/4)
    
    Classification
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
    Footnote
    Rez. in: Online-Mitteilungen 2006, H.88 [=Mitteilungen VÖB 2006, H.4], S.16-18 (M. Buzinkay): "Dass das Internet ein Heuhaufen sein kann, in dem die berühmt-berüchtigte Nadel nicht einmal annähernd gefunden werden kann, hat sich herumgesprochen. Orientierungshilfen und Wegweiser gibt es also viele, sowohl online als auch über traditionellere Medien wie dem Buch. Auch das vorliegende Werk von Anna-Katharina Weilenmann ordnet sich in diese Kategorie von Internet-Führern ein. Auf rund 200 Seiten werden Einstiege in verschiedenste Themen der Wissenschaft angeboten. Über so genannte Subject Gateways - nennen wir sie schlicht Themen-Portale - werden Wissenschaftsdisziplinen erschlossen, meist in einer kurzen, aber präzisen Beschreibung der online-Ressource. Jedes Sachgebiet wird zudem um Lexika, Enzyklopädien, Bibliographien und Datenbanken ergänzt. Die Ordnung der Sachgebiete orientiert sich an der Dewey Dezimalklassifikation. Die Bandbreite der Sachgebiete ist dementsprechend groß und orientiert sich an der Wissenschaft: - Bibliotheks- und Informationswissenschaft - Philosophie und Psychologie, Religion / Theologie - Sozialwissenschaften, Soziologie, Politik - Wirtschaft, Recht - Erziehung, Ethnologie, Sprache, Literaturwissenschaft - Mathematik, Physik, Chemie, Biologie - Technik - Medizin - Landwirtschaft, Informatik - Kunst, Architektur, Musik, Theater, Film - Sport - Geschichte Geographie, Reisen Bei der Auswahl der einzelnen Web-Quellen ließ sich die Autorin von Qualitätskriterien wie Alter der Webseite, der Zuverlässigkeit der Inhalte, der Aktualität aber auch von der Art der Trägerschaft leiten. Webseiten mit einem akademischen Hintergrund standen daher im Vordergrund, waren aber nicht ausschließlich vertreten. So finden sich auch Webseiten kommerzieller Anbieter (z.B. Scopus von Elsevier) oder auch anderer öffentlicher, nicht-akademischer Institutionen (wie der Österreichischen Nationalbibliothek mit Ariadne) im Webseiten-Verzeichnis. Rund 200 deutsch- und englischsprachige Einträge werden im Buch genauer beschrieben, mit Informationen zum Inhalt des Angebots, der Urheberschaft und Angabe möglicher Kosten. Auch weiterführende Links werden häufig angeführt. Ein einführendes Kapitel zur Informationsrecherche rundet dieses gelungene Buch ab.
    Empfehlung: Das Buch eignet sich meiner Meinung nach gut als Ausgangspunkt für die Recherche in einem noch unbekannten Sachgebiet. Zum einen, weil ein Sachgebiet von recht wenigen, dafür von der Autorin gut ausgesuchten Web-Quellen eingerahmt wird. Zum anderen, weil hier von vertrauenswürdigen Webseiten ausgegangen werden kann. Man kann es auch anders sagen: dieses Buch gehört möglichst nahe an jede InternetArbeitsstation. Aufgrund der Dynamik des Themas - Links und Webseiten können recht rasch "altern" - hat dieses Buch natürlich eine fast schon natürliche Lebensdauer. Hier wäre es interessant, und das ist weniger ein Hinweis an die Autorin als vielmehr ein Wink an den Verlag, die so detailreich beschriebenen Quellen auch online zugänglich zu machen, nämlich in der Form von Bookmarks, die von den Leserlnnen auf eigene Bookmarking-Tools übernommen werden könnten. Entweder ganz einfach als Favoriten im eigenen Browser oder zu elaborierten Werkzeugen wie Rollyo, wo individuelle Suchdienste basierend auf selbst erstellten Searchrolls bedient werden könnten. Damit würde man sich die mehr als lästige Tipp-Arbeit ersparen. Mehr zu Rollyo können Sie unter http://www.buzinkay.net/blog-de/2006/11/rollyo/ nachlesen."
    Weitere Rez: Information - Wissenschaft und Praxis 58(2007) H.5, S.317-318 (M. Katzmayr): "Fazit: Mit diesem Band ist eine interessante und relevante Zusammenstellung wichtiger Ausgangspunkte für thematische Webrecherchen geglückt, aufgrund seiner praktischen Relevanz ist ihm eine weite Verbreitung zu wünschen. Insbesondere Bibliothekare im fachlichen Auskunftsdienst in wissenschaftlichen oder größeren öffentlichen Bibliotheken können aus dieser gut sortierten Fundgrube hochwertiger Internetquellen einen großen Nutzen ziehen."
    RVK
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
  4. Roßmann, N.: Website-usability : Landtag NRW (2002) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 2076) [ClassicSimilarity], result of:
          0.036170736 = score(doc=2076,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 2076, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2076)
      0.25 = coord(1/4)
    
    Abstract
    Die Studie untersucht die Usability der Homepage des Landtags NordrheinWestfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung. Der hier eingesetzte Thinking-Aloud-Test ist ein Benutzertest, bei dem zwanzig Laien und zwanzig Information Professionals zuerst ihre Erwartungen an die Site äußern und dann anhand der Homepage, unter Beobachtung, Aufgaben bearbeiten. Anschließend geben sie anhand eines Fragebogens eine Beurteilung ab. Die heuristische Evaluation ist eine expertenzentrierte Methode. Usability-Experten stellen Checklisten auf, anhand derer eine Homepage untersucht wird. In dieser Studie finden drei Heuristiken Anwendung. Die Availability-Untersuchung der homepageeigenen Suchmaschine ist eine bibliothekarische Evaluationsmethode, die anhand einer Suche nach Webseiten, von denen bekannt ist, dass ihr Angebot aktiv ist, die Qualität der Suchmaschine hinsichtlich der Erreichbarkeit der Dokumente bestimmt. Die drei Methoden ergänzen einander und decken in ihrer Variation einen großen Pool an Usability-Fehlern auf. Die Ergebnisse: Die Benutzer vermissen auf der Homepage besonders Informationen über den Landeshaushalt, eine Liste der Mitarbeiter mit ihren Zuständigkeiten, Hintergrundinformationen zu aktuellen landespolitischen Themen und Diskussionsforen als Kommunikationsmöglichkeit. Im Durchschnitt liegen die Klickhäufigkeiten für das Lösen einer Aufgabe über denen, die für den kürzesten Weg benötigt werden. Die Abbruch-Quote aufgrund einer nicht lösbar erscheinenden Aufgabe beträgt bei 40 Probanden à sechs Aufgaben 13,33% (32 Abbrüche). In der Abschlussbefragung äußern sich die Testpersonen größtenteils zufrieden. Die Ausnahme stellt der Bereich "Navigation" dar. 40% halten die benötigten Links für schwer auffindbar, 45% aller Probanden wissen nicht jederzeit, an welcher Stelle sie sich befinden.
    Auch die heuristische Evaluation deckt Navigationsfehler auf. So ist beispielsweise die ZurückFunktion des Browsers fehlprogrammiert. Der Zurück-Button muss stets zwei- statt einmal betätigt werden, wenn man möchte, dass sich nicht nur ein Frame "zurückbewegt". Außerdem werden die Hierarchieebenen nicht deutlich genug hervorgehoben. Bereits besuchte Links unterscheiden sich farblich nicht von solchen, die noch nicht angeklickt wurden. Viele Fotos dienen weniger der Verständlichkeit der Texte als ästhetischen Zwecken. Interne Abkürzungen werden nicht immer aufgelöst und sind somit für den Benutzer unverständlich. Die Suchmaschine erreicht eine Availability von nur 60%, was auf den großen Anteil der Texte der Landtagszeitschrift in der Datenbasis und die Berücksichtigung von Worthäufigkeiten beim Relevance Ranking zurückzuführen ist. Die Kritikpunkte und Änderungsvorschläge beziehen sich nicht so sehr auf die Gesamtstruktur der Homepage, sondern auf viele Details. Auch wenn es scheint, als handele es sich bei einigen Punkten nur um Geringfügigkeiten, so wird die Umsetzung dieser Details, festgehalten im Usability-Report, für die Benutzerfreundlichkeit ein großer Gewinn werden.
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.34
  5. Heine, E.V.I.; Stock, W.G.; Oglou, Y.A.; Hackel, M.; Krasic, A.; Quack, S.; Rode, N.; Burghardt, S.; Manalodiparambil, M.; Röttger, M.; Schönhalz, D.; Valder, A.; Kühn, K.; Bachmaier, K.; Disli, S.; Punner, M.; Sabbagh, M.; Ströbele, U.; Bogen, C.; Rauter, J.; Schowe, K.; Steffen J.; Wiese, S.; Rohmen, S.; Wurzler, M.; Bülow, G.; Pudelko, F.; Roelvink, V.; Adjei-Kwarteng, C.; Jovanovic, M.; Kosmidou, M.; Hedwing, M.: Usability von Navigationssystemen im E-Commerce und bei informativen Websites - des Nutzers Odyssee (2003) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 2966) [ClassicSimilarity], result of:
          0.036170736 = score(doc=2966,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 2966, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2966)
      0.25 = coord(1/4)
    
    Abstract
    In einer empirischen Usability-Untersuchung wird die mittlere Güte der Navigationssysteme deutschsprachiger Websites im E-Commerce (Otto, Quelle, Amazon, eBay) sowie von informativen Websites (HWWA, Landtag NRW, Europäische Union, Kartoo) erfasst. Eingesetzt werden die Methoden des aufgabenbezogenen Nutzertests und der heuristischen Evaluation.
    Content
    ""Kein Grundstück der Welt ist so wertvoll wie eine Homepage", denn diese ist "zugleich das Gesicht, das ein Unternehmen der Welt zeigt" (Nielsen 1999). Die Homepage ist die erste Möglichkeit, die ein potenzieller Kunde oder gewünschter Lieferant wahrnimmt, um sich ein Bild über ein Unternehmen zu verschaffen "ehe sie sich auf ein Geschäft einlassen" (ebd.). Hier wird der Grundstein für zukünftige Geschäfte gelegt, unabhängig davon ob dies "nun online geschieht oder in der realen Welt" (ebd.). Die Website stellt demnach die erste Verbindung zu unterschiedlichsten Interessenten, Kunden und Lieferanten dar, wird somit zu einem Kommunikations- und Werbemedium. Deshalb ist es umso wichtiger, dass sich Benutzer auf sämtlichen Seiten einer Homepage zurecht finden, diese imstande ist, "die Bedürfnisse der Benutzer zu erfüllen" (ebd.), dass sie benutzerfähig und benutzerfreundlich ist. Diese Arbeit analysiert die Usability, d. h. die Benutzerfreundlichkeit und die Benutzbarkeit der deutschsprachigen Webauftritte der nachfolgenden Unternehmen bzw. Institutionen (nach Themenbereichen gegliedert), nicht nach künstlerischen, sondern nach funktionalen Kriterien: - Kataloge im E-Commerce: Otto (www.otto.de); Quelle (www.quelle.de); Amazon (www.amazon.de); eBay (www.eBay.de) - Informative Websites: HWWA (www.hwwa.de); Landtag NRW (www.landtag.nrw.de); Europäische Union (europa.eu.int); Kartoo Metasuchmaschine (www.kartoo.com). Von den unterschiedlichen Zielen der diversen Websites ausgehend wird untersucht, ob sich der alltägliche Web-Surfer, nachfolgend als "Otto Normalsurfer" gekennzeichnet, auf den einzelnen Webseiten zurecht findet, ob sein Informationsbedarf gedeckt und das Bedürfnis, sowohl nach allgemeiner als auch spezifischer Information befriedigt werden kann. Es geht demnach konkret um die Web-Zufriedenheit der Surfer, Mängel der Websites bezüglich Benutzerfreundlichkeit, des Designs und fehlende "Corporate Identity" aufzuzeigen und somit die Web-Usability der Websites zu vergleichen. Insbesondere das vergleichende Vorgehen im Anschluss an aufgabenbezogene Nutzertests sind wissenschaftliches Neuland."
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.7, S.405-414
  6. Ulrich, P.S.: Einsatz und Erfahrungen mit QuestionPoint in der Zentral- und Landesbibliothek Berlin (2004) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 3141) [ClassicSimilarity], result of:
          0.036170736 = score(doc=3141,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 3141, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3141)
      0.25 = coord(1/4)
    
    Abstract
    Die Zentral- und Landesbibliothek Berlin (ZLB) ist die einzige deutschsprachige Bibliothek, die an dem Collaborative Digital Reference Service (CDRS) teilgenommen hat.' Nachdem das Projekt im Juni 2002 beendet wurde, erfolgte die Weiterentwicklung unter dem Namen QuestionPoint. Zuerst nahm die ZLB nur am globalen Bereich von QuestionPoint teil, d.h. entweder wurden Fragen, die von anderen Bibliotheken weitergeleitet wurden, von der ZLB beantwortet, bzw. wurden Fragen, die die ZLB nicht beantworten konnte, an die internationale Gemeinschaft zur Beantwortung weitergeleitet. Ähnlich wie bei CDRS war die Anzahl sowohl der eingehenden als auch der ausgehenden Fragen sehr gering. Interessanter für die ZLB war der Einsatz des lokalen Moduls für die E-MailAuskunft. Dieses Modul sollte das bisher verwendete Formular auf der Website ersetzen. Allerdings gab es ein großes Problem: Die QuestionPoint-Oberfläche war nur in Englisch! Für ein vorwiegend deutschsprachiges Publikum wäre es nicht tragbar, diese Oberfläche nur englischsprachig anzubieten. Als Anfang 2003 die ersten nicht-englischsprachigen Oberflächen für QuestionPoint (insbesonders die niederländische Oberfläche) eingesetzt wurden, vereinbarte die ZLB mit OCLC, dass die deutsche Übersetzung der Benutzeroberfläche von den Mitarbeitern des Informationsdienstes der ZLB erstellt werden würde. Diese Übersetzung wurde im Mai von QuestionPoint aktiviert. Daraufhin entschied die ZLB die gesamte Oberfläche (Benutzer- und Bibliotheksinternen-Bereich') ins Deutsche zu übersetzen. Inzwischen steht QuestionPoint in folgenden Sprachen für Benutzer und Bibliothekar zur Auswahl: Deutsch, Englisch, Französisch, Portugiesisch, Slowenisch, Spanisch, Chinesisch, Japanisch oder Koreanisch. Was ist QuestionPoint? Das Produkt QuestionPoint' ist ein Auskunftswerkzeug, das gemeinsam mit der Library of Congress und OCLC entwickelt wurde und inzwischen von mehr als 200 Bibliotheken weltweit für Auskunftszwecke eingesetzt wird. Im Gegensatz zum Projekt CDRS, das ein internes Werkzeug für die Weiterleitung von Auskunftsfragen an eine Gemeinschaft von internationalen Bibliotheken war, ist QuestionPoint eine Sammlung von Komponenten, die es den teilnehmenden Bibliotheken ermöglicht, ihre verschiedenen Internet-Auskunftsdienste sowohl lokal als auch in Zusammenarbeit mit anderen Bibliotheken oder mit internationalen Bibliotheken zu koordinieren und zu verwalten. Die Auskunftsbereiche, die damit abgedeckt sind, sind E-Mail- und ChatAuskünfte. Alle Module laufen auf dem Server von OCLC in den USA. Teilnehmende Bibliotheken erstellen - anhand von Templates' - ihre individuellen Webseiten für die entsprechenden Dienste, die sie anbieten wollen, und stellen diese so angefertigten Seiten auf ihre Website.
  7. www.vascoda.de : Deutschlands neuer Weg zur wissenschaftlichen Information (2003) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 3272) [ClassicSimilarity], result of:
          0.036170736 = score(doc=3272,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 3272, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3272)
      0.25 = coord(1/4)
    
    Abstract
    In einer strategischen Allianz bieten 37 deutsche Bibliotheken, Forschungsinstitute und Informationseinrichtungen ein fächerübergreifendes Internet-Portal zu wissenschaftlichen Publikationen an
    Content
    "Noch nie zuvor war es so leicht, an wissenschaftliche Fachinformation von hoher Qualität zu kommen: Unter www.vascoda.de haben 37 leistungsstarke deutsche Bibliotheken, Forschungsinstitute und Informationseinrichtungen ein fächerübergreifendes Internet-Portal eingerichtet. Es wird als zentrale Anlaufstelle große Mengen an wissenschaftlicher Literatur und Fachinformation online für die Öffentlichkeit zugänglich machen. vascoda bündelt als übergeordnetes Wissenschaftsportal die in Deutschland vorhandenen, mit öffentlichen Mitteln aufgebauten Informationsdienstleistungen unter einer einheitlichen Zugangsoberfläche. Die Suchmaske ist genauso einfach zu handhaben wie die Internet-Suchmaschine Google. Ihre Benutzung ist unentgeltlich. Alle angebotenen Informationen stammen aus geprüften Quellen. Ein Großteil davon ist kostenlos zu beziehen. Es werden aber auch kostenpflichtige Informationen, zum Beispiel aus Verlagsangeboten und kommerziellen Datenbanken, verfügbar gemacht. Um einen schnellen Zugriff auch auf diese Veröffentlichungen zu gewährleisten, soll möglichst viel Information im Einzelverkauf nach Aufruf, dem sogenannten "Pay-per-View"-Verfahren, bereitgestellt werden. Auch vorhandene Abonnements von elektronischen Zeitschriften können weiterhin so genutzt werden, wie es mit dem Verlag oder Informationsanbieter vereinbart ist. Das Bundesministerium für Bildung und Forschung (BMBF) und die Deutsche Forschungsgemeinschaft (DFG) fördern den Aufbau von vascoda gemeinsam. Die Förderer und die an der Informationsallianz beteiligten Partner betrachten das Portal als Grundstein der "Digitalen Bibliothek Deutschland", die sich an den Bedürfnissen der Benutzer orientiert. Zur Zeit sind 23 virtuelle Fachbibliotheken (ViFas), die vier großen Informationsverbünde EconDoc (Wirtschaft), Getlnfo (Naturwissenschaft und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie und Medizin) sowie die Elektronische Zeitschriftenbibliothek (EZB) in vascoda eingebunden. ViFas - virtuelle Fachbibliotheken - sind Anlaufstellen im Web, die einen Überblick über das fachspezifische Informationsangebot zu bestimmten wissenschaftlichen Fachgebieten geben. Sie wurden in den letzten Jahren mit Unterstützung der DFG aufgebaut, um qualitativ hochwertige Internetquellen, aber auch gedruckte Publikationen - über die Einbindung von Bibliothekskatalogen - leicht zugänglich zu machen. Informationsverbünde bieten ebenfalls Unterstützung bei der Informationssuche. Sie bündeln auf fachlicher Ebene alle Formen relevanter Informationen, um dem Benutzer einen umfassenden Zugang zu ermöglichen. Dabei ist das Angebot von elektronischen Dokumenten in ihrem vollen Wortlaut (Volltext) von zentraler Bedeutung. Das heißt, die gewünschte Information kann sofort im Anschluss an die Suche online auf den eigenen Computer heruntergeladen und ausgedruckt werden. Die EZB ist ein kooperativer Service von 209 Bibliotheken zur Bereitstellung von elektronischen Zeitschriften, die im Internet publiziert werden. Vascoda führt alle diese Informationsquellen unter einem Zugang zusammen. Die erste Version von vascoda wird zur internationalen Bibliothekskonferenz IFLA Anfang August in Berlin (1.-9.8.2003) im Internet freigeschaltet. vascoda ist darauf ausgerichtet, kontinuierlich weitere Partner mit Informationen zu allen wissenschaftlichen Disziplinen einzubinden. Weitere Informationen unter www.vascoda.de, wo auch eine Liste der vascoda-Partner bereitgestellt ist."
  8. Ostermann, D.: ¬Ein Kampf um die Freiheit des Internet (2005) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 5324) [ClassicSimilarity], result of:
          0.036170736 = score(doc=5324,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 5324, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5324)
      0.25 = coord(1/4)
    
    Abstract
    Vor einem UN-Gipfel in Tunis eskaliert der Streit ums Internet: Die USA wollen die Kontrolle behalten und wehren sich gegen eine internationale Verwaltung.
    Content
    "Für den gemeinen Nutzer ist das Internet ein wundersamer Ort der unbegrenzten Möglichkeiten. Er kann mit einem Mausklick Mails verschicken, sein Bankkonto verwalten oder Reisen buchen. Das virtuelle Datennetz aber funktioniert nur, wenn Standards beachtet, Adressengeordnet und Verbindungen hergestellt werden. Der zentrale Ort dafür ist durchaus real und wunderschön an der kalifornischen Küste gelegen: Marina del Rey, ein Vorort von Los Angeles. Hier sitzt die Internet Corporation for Assigned Names and Numbers (ICANN). Die von der US-Regierung geschaffene gemeinnützige Organisation übernahm 1998 jene technische Verwaltung, die in den anarchischen Anfangsjahren der legendäre Internet-Pionier Jon Postel nahezu alleine gestemmt hatte. Geht es nach dem Willen der USA, soll das so bleiben. Im Juni erklärte das US-Wirtschaftsministerium, Washington beabsichtige nicht mehr, die Aufsicht über die Internetverwaltung wie geplant 2006 abzutreten. Damit stellte sich die Bush-Regierung gegen wachsendem Druck, ICANN durch ein internationales Gremium unter dem Dach der UN zu ersetzen. Diese Forderung war bereits beim ersten Weltgipfel zur Informationsgesellschaft 2003, . in Genf erhoben worden. Befürworter sind unter anderen China, Brasilien, Südafrika und Indien. Vor dem für Mitte November in Tunis geplanten weiten InformationsGipfel sprach sich auch die EU für eine Neuordnung der Kompetenzen aus. Als Eingriff in ihre Souveränität betrachten diese Staaten es etwa, wenn nicht die jeweiligen Regierungen, sondern ICANN die Verwaltung der Länder-Domänen - etwa ".de" für Deutschland - vergibt. Die Befürchtung, die USA könnten in Extremfällen LänderDomänen wie die Irans aus dem Netz werfen, gilt zwar als praktisch kaum durchführbar. Immerhin aber hat die Bush-Regierung unlängst nach Protesten konservativer US-Christen die geplante Einrichtung einer neuen Porno-Domäne ( ".xxx") gestoppt - und so bewiesen, dass ICANN keineswegs unabhängig von politischer Kontrolle agiert. Eine internationale Verwaltungsinstanz wiederum wird in den USA einhellig abgelehnt. Mehrere Abgeordnete im Kongress haben vorige Woche einen Resolutionsentwurf eingebracht, der die US-Kontrolle festschreiben soll. Das Internet sei in den USA geschaffen worden und habe unter der Aufsicht und Kontrolle der USA floriert, heißt es darin. Tatsächlich kommt zu den politisch-strategischen Erwägungen auch die Sorge, das Internet könne seine Stärken als freies, weitgehend unreguliertes Medium durch eine überbordende UN-Bürokratie verlieren. Zudem macht es Verteidiger des US-Monopols skeptisch, wenn Länder wie China, Iran und Kuba an vorderster Front eine internationale Kontrolle fordern."
    Footnote
    ICANN - Die Organisation entscheidet über die Grundlagen der Verwaltung von Namen und Adressen im Internet und beschließt technische sowie Verfahrensstandards. Die Internet Corporation for Assigned Names and Numbers (ICANN) ist eine privatrechtliche Organisation; sie agiert ohne die Absicht, Gewinn zu erzielen.
  9. Qualman, E.: Socialnomics : wie Social-Media Wirtschaft und Gesellschaft verändern (2010) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 575) [ClassicSimilarity], result of:
          0.036170736 = score(doc=575,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 575, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=575)
      0.25 = coord(1/4)
    
    Abstract
    Wie Social Media die Produktion, das Marketing und den Verkauf von Produkten verändern Wie Unternehmen direkt mit ihren Kunden kommunizieren können Mit Kraft der neuen Medien die Umsätze steigern und Marketingkosten senken Das erste deutsche Buch, das die Auswirkungen der neuen Social Media aufzeigt Social Media wie Facebook, YouTube, Twitter & Co. sind die Medien der Zukunft und verändern das Verhalten der Menschen grundlegend. Ein Hype, der auch im Marketing eine große Rolle spielen kann. Erik Qualman zeigt in diesem Buch die Auswirkungen von Social Media und wie diese gezielt genutzt werden können. Es ist wegweisend für jedes E-Marketing, das die neuen Herausforderungen der Social Media erfolgreich einsetzen möchte sowie für alle, die wissen wollen, was es mit Social Media auf sich hat.
    Footnote
    Rez. in Mitt. VÖB 63(2010) H.1/2, S.148-149 (M. Buzinkay): "Endlich wieder ein Buchtitel, der mich nicht nur gleich angesprochen, sondern auch das gehalten, was er versprochen hat. Eine vertiefende Lektüre in ein sehr aktuelles und sehr wichtiges Thema, dass sowohl Einzelpersonen wie auch Organisationen, Unternehmen und Vereine gleichermaßen beschäftigen muss: "Wie Social Media Wirtschaft und Gesellschaft verändern" heißt der Untertitel des Werkes von Erik Qualman. Der Autor liefert für seine Behauptungen ausgesuchte Beispiele, diese seine Argumentation untermauern. Schön ist, dass man diese Beispiele gleich als Hands-on Tipps für seine eigene Online Arbeit nutzen kann. Bei der schier unendlichen Anzahl von Beispielen muss man sich aber fragen, ob man je in der Lage sein wird, diese nützlichen Hinweise jemals nur annähernd im eigenen Unternehmen umzusetzen. Um es kurz zu fassen: man kann das Buch mit ins Bett nehmen und in einem durchlesen. Fad wird einem nicht, nur genug Post-its sollte man mitnehmen, um alles wichtige zu markieren und zu notieren. Am nächsten Morgen sollte man das Buch aber sein lassen, denn das Geheimnis von Socialnomics ist die Umsetzung im Web. Eine dringende Empfehlung an alle Marketing-Interessierten!"
  10. EndZeitKommunikation : Diskurse der Temporalität (2010) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 635) [ClassicSimilarity], result of:
          0.036170736 = score(doc=635,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 635, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=635)
      0.25 = coord(1/4)
    
    Abstract
    Unter End-Zeit-Kommunikation kann man sich vieles vorstellen - eine Trauerfeier, den Sturz einer Regierung oder den literarischen Abschied von Liebenden. Was Kommunikation ist, wissen wir mittlerweile, doch was ist Zeit, wann beginnt und endet sie und wie wird sie kommuniziert? Was meinen wir mit ruhigen, bewegten und schnelllebigen Zeiten? Ist Zeit für alle gleich oder systemspezifisch? Auch End-Zeit-Kommunikation braucht Zeit und reflektiert im Hier und Jetzt Ungleichzeitiges: Vergangenes und Künftiges, Erfahrungen und Erwartungen. Wohl wissend, dass dieses Paradoxon schwer erklärbar ist, versuchen die Autoren dieses Buchs, Antworten auf unterschiedliche Fragen zum Verhältnis von Kommunikation und Zeit zu finden.
    Content
    Inhalt: Westerbarkey, Joachim: Zeit - Annäherungen an ein Phantom. / Losch, Nimra: Die Zeit der Katze. Wie das Zusammenleben mit Katzen die Tier-Mensch-Kommunikation entwickelt. / Pointke, Florian: Endzeitstimmung. / Yeh, Sonja: Das Ende der großen Erzählungen?. / Heßling, Donna: Auf Leben und Tod. / Schmidt, Siegfried J.: "immer ist jetzt". / Skrobala, Jurek: Ende der Geschichte? End-Zeit-Vorstellungen in der postmodernen Medienphilosophie. / Völlmicke, Stephan: Konstrukte von Sterben und Tod. / Nebelsieck, Simone: Virtuelle Friedhöfe. / Gehrau, Volker: Der kultivierte Tod. / Kahr, Robert: School Shootings - Vergeltung nach Plan. / Leiß, Albert: Zeit aus der Sicht der Physik. / Bell, Saskia: Memory Books. / Nölleke, Daniel: In Rekordzeiten zu Kurzzeitruhm. / Neuberger, Christoph: "Jetzt" ist Trumpf. / Donk, André: Kein Gedächtnis nirgends?. / Westerbarkey, Joachim: Zeitweiliges - Mutmaßungen zur Mode. / Elstroth, Heinz-Jürgen: Höchste Zeit!. / Herbers, Martin Rolf: Zeit im Comic. / Merten, Klaus: Mose in der Wüste. / Kohring, Matthias: Vertrauen - ein Blankocheck auf Zukunft. / Scholl, Armin: Journalismusforschung als langsame Beobachtung. / Preusse, Joachim: Zeitvorstellungen in der PR. / Westerbarkey, Joachim: Wendezeit. 2010
  11. Brügger, N.: ¬The archived Web : doing history in the digital age (2018) 0.01
    0.009042684 = product of:
      0.036170736 = sum of:
        0.036170736 = weight(_text_:und in 679) [ClassicSimilarity], result of:
          0.036170736 = score(doc=679,freq=20.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3099608 = fieldWeight in 679, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=679)
      0.25 = coord(1/4)
    
    BK
    15.03 Theorie und Methoden der Geschichtswissenschaft
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    NB 2800 - Geschichte / Geschichte als Wissenschaft und Unterrichtsfach / Einführung in die Geschichtswissenschaft und das Studium der Geschichte / Arbeitstechniken für Historiker
    AN 95400 - Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
    15.03 Theorie und Methoden der Geschichtswissenschaft
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RVK
    NB 2800 - Geschichte / Geschichte als Wissenschaft und Unterrichtsfach / Einführung in die Geschichtswissenschaft und das Studium der Geschichte / Arbeitstechniken für Historiker
    AN 95400 - Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
  12. Kleinz, T.: Beute im Netz : Das Web 2.0 hilft, Freunde mit gleichen Interessen zu finden - doch auch Geheimdienste und Betrüger lesen mit (2006) 0.01
    0.009021465 = product of:
      0.03608586 = sum of:
        0.03608586 = weight(_text_:und in 1) [ClassicSimilarity], result of:
          0.03608586 = score(doc=1,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3092335 = fieldWeight in 1, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1)
      0.25 = coord(1/4)
    
    Content
    "Knapp zwei Jahre ist es her, seitdem der USVerleger Tim O'Reilly das "Web 2.0" ausgerufen hat - das soziale Internet. Seitdem hat sich das Angebot im weltumspannenden Datennetz gewandelt. Nicht Redaktionen oder Firmen gestalten zunehmend Angebote, sondern die Nutzer selbst. Sie schreiben in Weblogs über ihren Alltag, tragen ihre Freunde in Kontaktbörsen ein, stellen Fotos, Videos und Musik ins Netz. Doch nicht nur Freunde nutzen die Vorteile des neuen Netzes - auch Betrüger, Geheimdienste und Firmen sind dabei. "Die Weisheit der Massen kann viel zu leicht in den Wahnsinn der Massen umschlagen", warnt Web-2.0-Vordenker O'Reilly. Er spricht von der "dunklen Seite" des Web 2.0. "Kollektive Intelligenz erfordert das Speichern gewaltiger Datenmengen. Diese können genutzt werden, um innovative Dienste zur Verfügung zu stellen. Die gleichen Daten können aber auch unsere Privatsphäre bedrohen." So tobt in einer Mailingliste der Online-Enzyklopädie Wikipedia eine Debatte über ein Auswertungswerkzeug. Eine Webseite trug zahlreiche Details über alle WikipediaNutzer zusammen. Sie zeigte, wer wie lange und in welchen Feldern der Wikipedia tätig war. Übersichtliche Wochengrafiken veranschaulichten, zu welchen Tageszeiten welche Nutzer gerne aktiv sind. Einem ehemaligen Mitwirkenden gefällt das nicht. Uli Fuchs beklagte, solche Auswertungen verstießen gegen sein Recht auf informationelle Selbstbestimmung und wahrscheinlich gegen mehrere Gesetze. Die Wikipedia-Verantwortlichen knickten ein: Bis zu einer rechtlichen Klärung schalteten sie das Auswertungswerkzeug ab. Fuchs spricht einen brisanten Punkt an. Penibel verzeichnet die Online-Enzyklopädie jede kleinste Änderung, die ein User an den Artikeln vornimmt. Die Daten sind bis auf den letzten Kommafehler auch nach Jahren noch einsehbar. In den falschen Händen können solche Informationen brisant sein. Sind etwa Arbeitnehmer krank gemeldet, geraten sie vielleicht in Erklärungsnöte, wenn sie zur gleichen Zeit an Wikipedia-Artikeln arbeiten. Ein Großteil der Nutzer versteckt sich daher hinter Pseudonymen.
    Auch "My Space" verdeutlicht die Schattenseite des Web 2.0: In mehreren hundert Fällen ermittelt die US-Bundespolizei FBI wegen sexueller Belästigungen von Kindern und Jugendlichen. Die Plattform hat reagiert und wirbt seit dieser Woche in Fernsehspots für den verantwortungsvollen Umgang mit den eigenen Daten. Durchschlagender Erfolg ist nicht zu erwarten: So lautet ein Ratschlag an die Jugendlichen, das eigene Zugangs-Passwort den Eltern mitzuteilen - was der Empfehlung gleichkommt, das eigene Tagebuch bei den Eltern zu hinterlegen. Eine weitere Bedrohung für die Privatsphäre geht von den Konzernen aus, die diese Dienste anbieten. Die meisten sind kostenlos, sie sollen über Werbung und Partnerschaften Geld bringen. So hat der Internet-Riese Yahoo eine ganze Reihe von Web2.0-Firmen gekauft, darunter das Bilderportal "Flickr" und den Bookmark-Dienst "Del.icio.us". "My Space" gehört mittlerweile zum Imperium des Medien-Moguls Rupert Murdoch. O'Reilly warnt: "Diese Firmen werden einen enormen Einfluss auf unser aller Leben haben - und sie können ihn zum Guten wie zum Schlechten nutzen." Der Identitätsdiebstahl im Internet ist mittlerweile zu einem ernsthaften Problem geworden. Kriminelle gehen mit Daten wie Namen und Kreditkartenummern auf Betrugstour. Sie verursachten laut amtlicher Statistik allein im Jahr 2004 Schäden in Höhe von sechs Milliarden Dollar - aktuelle Schätzungen gehen von bis zu 50 Milliarden Dollar Schaden pro Jahr aus. Aber nicht nur Betrüger beuten den Datenschatz im Netz aus, auch Geheimdienste zeigen Interesse. So berichtet das Wissenschaftsmagazin New Scientist, der US-Geheimdienst National Security Agency erforsche intensiv Techniken, mit deren Hilfe die Agenten soziale Netzwerke überwachen und systematisch auswerten können. Das Interesse kommt nicht von ungefähr: Web-2.0-Dienste erfreuen sich einer großen Beliebtheit. So verzeichnet das erst vor zwei Jahren gegründete Portal "My Space" schon fast 100 Millionen Nutzer, die sich über Musik- und andere Konsumvorlieben austauschen. Besonders bei Musikern ist die Plattform beliebt: Mittlerweile sollen sich dort 400 000 Bands tummeln, die ihre Arbeit auf der Plattform vorstellen."
  13. Clyde, L.A.: Weblogs and libraries (2004) 0.01
    0.009021465 = product of:
      0.03608586 = sum of:
        0.03608586 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.03608586 = score(doc=5496,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3092335 = fieldWeight in 5496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5496)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
    Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
  14. Krings, N.: Blick in Nachbars Garten : Google Earth - Faszinierende Satelliten-Bilder von allen Teilen der Erde (2006) 0.01
    0.009021465 = product of:
      0.03608586 = sum of:
        0.03608586 = weight(_text_:und in 5846) [ClassicSimilarity], result of:
          0.03608586 = score(doc=5846,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3092335 = fieldWeight in 5846, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5846)
      0.25 = coord(1/4)
    
    Content
    "Noch können Neugierige nicht genau erkennen, was der Nachbar in seinem Garten gerade so macht. Doch weit entfernt von derart privaten Einblicken sind die PC-Anwendungen, mit deren Hilfe man aus dem Weltraum per Satellit auf die Erde schaut, nicht mehr. Google Earth ist längst Kult. Kritiker weisen zwar darauf hin, dass die Bilder zumindest bei militärischen Anlagen ein hohes Sicherheitsrisiko darstellen. Aber die Faszination überwiegt. Und die Möglichkeit, viel Geld zu verdienen. Immer mehr Firmen lassen sich gegen Gebühr bei Google Earth listen, damit sie für jeden Nutzer auf diesem Weg zu finden sind. Inzwischen gibt es sogar eine Gemeinschaft (Comunity) der Google Earth-Nutzer weltweit. jeder Interessierte hat die Möglichkeit, persönliche Landmarken einzufügen und auf diese Weise alle, die das kostenlose Programm nutzen, überall auf der Welt auf die eigene Gartenlaube aufmerksam zu machen. Spannend sind auch Wettbewerbe der Comunity. Etwa: "Wo sind die größten Parkplätze auf der Welt zu finden?" Eine richtige Antwort lautet: im Disneyland von Tokio. Von großartigen Ideen möchten schnell auch andere profitieren. Klicktel.de bietet eine besonders clevere wie nützliche Lösung für seinen Routenplaner an. Straße mit Nummer eingeben, die Stadt nennen - und schon kann man ein Blick auf das Haus werfen, in dem man wohnt, und auf die Straße, die man sucht. Erstaunlich, dass die Auflösung hier meist besser ist als bei den Aufnahmen von Google Earth für Deutschland. Die Google-Bilder aus den USA dagegen sind "gestochen scharf, teilweise sogar bis hinunter auf rund 30 Meter Höhe. Hier hat Google auf Sicherheitsbedenken reagiert und per Bildbearbeitung eingegriffen. Das Dach des Weißen Hauses wurde für die Ansicht nachträglich geschwärzt, ebenso wie zahlreiche andere Regierungseinrichtungen.
    Wenn man die Betrachtungsebene bei Google Earth langsam kippt, wird sogar eine dreidimensionale Ansicht - teilweise echt, zum größten Teil aber vom Computer errechnet und künstlich wirkend - sichtbar. Und das schafft Google Earth mit Aufnahmen von einem einzigen Satelliten. Wer World Wind (den Dienst der US-Weltraumagentur Nasa) bemüht, kann je nach Gebiet auf unterschiedlich hoch auflösende Karten zurückgreifen. Das rund 20 Euro teure, leider sehr aufwändig zu installierende Programm NaSat verwendet Aufnahmen von diversen Nasa-Satelliten. Hiermit lassen sich beispielsweise ein Vulkanausbruch in der Südsee oder eine Feuersbrunst in Kalifornien beobachten. NaSat kann nahezu jeden Quadratkilometer der Erde abbilden und ist zudem mit Klicktel kompatibel, was bedeutet, dass in Klicktel gefundene Adressdaten in NaSat eingelesen und bis auf die Straße genau angezeigt werden können. Für Geographen ist interessant, dass man sich zusätzlich über Temperaturen und die Verteilung von Niederschlägen überall auf der Welt visuell informieren kann. Auch die Entdeckung beeindruckender Touristenziele wie den Kreml in Moskau, die Pyramiden von Gizeh oder die Villa von Bill Gates ist blitzschnell möglich. Google Earth hat als Anwendung, die ständig aktualisiert wird, den Vorteil, dass jeden Tag neue Daten den Blick auf die Erde interessanter machen. Und die Möglichkeiten sind noch lange nicht ausgereizt. So hat sich jetzt eine Initiative gefunden, die unter dem Motto "Deutschland muss schärfer werden" dafür sorgen möchte, dass zur Fußball-WM die Bereiche um die zwölf WM-Arenen höher aufgelöst ins Netz gestellt werden. Für Profis hat Google nachgelegt und bietet mit Earth Plus und Earth Pro zwei kostenpflichtige Versionen an. Unter anderem wurde GPS integriert. Daten des Ortungssystems können an Google übergeben werden."
  15. Jendro, O.: Goethe im Netz : Kostenlose eBooks: viele Klassiker werden online zum Download bereitgestellt (2003) 0.01
    0.009021465 = product of:
      0.03608586 = sum of:
        0.03608586 = weight(_text_:und in 212) [ClassicSimilarity], result of:
          0.03608586 = score(doc=212,freq=26.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.3092335 = fieldWeight in 212, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=212)
      0.25 = coord(1/4)
    
    Content
    "Bücher sind immer noch die Wissensquelle Nummer eins. Gediegene Wälzer und vielbändige Lexika im Regal zeugen von guter Bildung und sind schön anzusehen. Doch Bücher brauchen eine Menge Platz, sind schwer und nicht gerade billig. Wenn die Leselust größer ist als der vorhandene Platz im Bücherregal, dann sind sogenannte eBooks, also elektronische Bücher die ideale Lösung. Für die eBooks muss man keinen Schritt vor die Tür setzten. Der Lesestoff ist über das Internet erhältlich - als Datei zum Herunterladen. Und das Beste: Viele der elektrifizierten Bücher sind kostenlos abrufbar. Die beste Internet- Fundgrube für kostenlose, deutschsprachige Literatur ist die Webseite des Projekts Gutenberg.DE (http://gutenberg.spiegel.de/ index.htm). 250 000 Text-Seiten, der größte Teil davon klassische Literatur, warten darauf, von Besuchern gelesen zu werden. Das Gutenberg Projekt startete übrigens vor 30 Jahren in den USA. Damals bot Michael Hart im Netz der Universität von Illinois online eine Abschrift der amerikanischen Unabhängigkeitserklärung an. Allmählich kamen weitere Texte hinzu. Seit 1994 gibt es auch einen deutschen Ableger des Projekts. Angeboten werden Texte von Autoren, die seit. 70 Jahren tot sind und deren Copyright daher erloschen ist. Eingescannt oder abgetippt werden die Texte von vielen freiwilligen Helfern. Private Kopien sind durchaus erwünscht. Bis heute seien mehrere zehntausend Arbeitsstunden für das Projekt vom Gutenberg Team aufgebracht worden, schreiben die Macher des Projekts. In dieser Rechnung sind die externen Einsendungen aus dem Internet nicht einmal berücksichtigt.
    - Beeindruckende Autorenliste - Die Autorenliste beeindruckt: Von Aesop, Goethe, Hesse bis hin zu Zola reicht die Palette der Autoren. Das Archiv kann mit 1500 Romanen, 1500 Märchen, 13 000 Gedichten und vielem mehr aufwarten. Der Umfang. des Archivs übersteigt mittlerweile mehr als 50 000 HTMLDateien mit 850 MegaByte an Text- und Bildmaterial. 4.5 Millionen abgerufene Dokumente werden pro Monat gezählt (Texte und Bilder). Praktischerweise bietet das Projekt Gutenberg.DE das gesamte Archiv auf einer CD-ROM an - gegen eine Gebühr von knapp 26 Euro. Auf diese Weise lassen sich die digitalen Bücher auch offline genießen - ohne Internet. EBooks gibt es in vielfältigen Datei-Formaten. Die eBooks des Gutenberg Projekts bestehen beispielsweise aus HTML-Dateien und können deshalb mit jedem Web-Browser gelesen werden. Andere Webseiten stellen ihre eBooks als simple Textdateien oder Word-Dokumente, wie man sie im Office-Bereich verwendet, zur Verfügung. Viele eBooks sind für spezielle eBook-Programme (eBook-Reader) aufbereitet. eBookReader machen das Lesen der eBooks komfortabler und erlauben eine aufwändigere Gestaltung der Buchseiten. Mit einer eBook-ReaderSoftware lassen sich im eBook Lesezeichen anlegen, Bilder betrachtenund bequem per Tastendruck hin- und herblättern. Manche Software, wie zum Beispiel der Microsoft Reader, kann sogar die Texte vorlesen. So wird aus dem eBook ein Hörbuch. Für Sehbehinderte eröffnet sich damit eine neue literarische Welt. Die Software kann unter www.microsoft.com/reader/default.asp- aus dem Netz herunter geladen werden. Weit verbreitet ist auch der Adobe Acrobat Reader für die populären PDF-Dokumente. Ihn gibt es unter www adobe.com/products/acrobat/ readstep2.html. Speziell für Palms, Handhelds und PDAs wurde der Mobipocket Reader entwi- ckelt. Diese Lese-Software ist unter www.mobipocket.com erhältlich. Mit einem behindertengerechten Computer (beispielsweise spezieller Monitor, Braille-Zeile und passende Software) können Sehbehinderte aus dem täglich wachsenden Fundus der eBooks schöpfen. Wer seine Fremdsprachenkenntnisse aufpolieren will, hat mit zwei, drei Mausklicks massenweise fremdsprachige Literatur am Bildschirm. Egal ob Hamlet in der Originalfassung oder ein Bestseller wie Balance of Power" von Richard North Patterson - die fremdsprachigen eBooks sind nur einen Mausklick entfernt. Besonders im englischsprachigen Bereich haben eBooks Hochkonjunktur - dementsprechend groß ist die Auswahl. Erste Adresse für kostenlose, englischsprachige eBooks ist die englische Version des Gutenberg Projekts (http://promo.net/pg). Auch die Webseite www.blackmask.corn bietet aus allen Bereichen reichlich Lesestoff. in elektronischer Form.
  16. Eggert, L.; Quittek, J.; Stüttgen, H.: ¬Die Zukunft des Internets (2006) 0.01
    0.008928934 = product of:
      0.035715736 = sum of:
        0.035715736 = weight(_text_:und in 314) [ClassicSimilarity], result of:
          0.035715736 = score(doc=314,freq=78.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.30606177 = fieldWeight in 314, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=314)
      0.25 = coord(1/4)
    
    Content
    "Das »Netz der Netze« hat sich zu einem der wichtigsten Kommunikationsmittel entwickelt. Wurde es Anfang der 1990er Jahre nur von wenigen Spezialisten verwendet, so nutzen es inzwischen Privatleute wie Firmen mit aller Selbstverständlichkeit. Wer Informationen sucht, bedient sich dazu heute eines Web-Browsers, der Pizzaservice in der Nachbarschaft nimmt Bestellungen per E-Mail entgegen, und die persönlichen Ansichten zum Weltgeschehen finden ihren Niederschlag in Online-Tagebüchern, den so genannten Blogs. Die Grundprinzipien des Internets stammen aus den frühen 1970er Jahren, als das amerikanische Verteidigungsministerium die Entwicklung eines ausfallsicheren Computernetzes vorantrieb. Daraus resultierten die »Interconnected Networks«, kurz Internet. Auf der Basis standardisierter Protokolle konnten Rech-nernetzwerke nun kommunizieren. Die TCP/IP genannte Protokollfamilie sieht vor, dass Daten von Endsystemen wie PC oder Laptop zu Paketen geschnürt und mit den Netzwerkadressen von Absender und Adressat versehen werden. Jedes Paket geht dann für sich allein auf die Reise, wird an Verzweigungen des Netzwerks von Knotenrechnern beziehungsweise Routern weitergereicht und am Ende beim Empfänger wieder mit seinesgleichen zu den ursprünglichen Daten zusammengesetzt. Obwohl das zunächst komplizierter klingt als etwa eine direkte Verbindung zwischen zwei Kommunikationsteilnehmern, über die Informationen exklusiv ausgetauscht werden, hat sich dieses Vorgehen für die Kopplung von Rechnernetzwerken als äußerst robust erwiesen. Auf der doch relativ einfachen Infrastruktur des Internets können verschiedenste Dienste aufsetzen. Zu den ältesten zählt die E-Mail, zu den populärsten gehört das World Wide Web, das einen interaktiven, grafischen Zugang zu vielen Informationsquellen bietet. Die flexiblen Protokolle unterstützen darüber hinaus noch diverse andere Dienste.
    Eines für alles Zur Überraschung vieler Experten ist diese Technologie inzwischen auch in die Telefonwelt eingedrungen und hat begonnen, verbindungsorientierte Verfahren wie ISDN und ATM zu verdrängen. Lässt ein Unternehmen heute ein neues firmeninternes Telefonnetz installieren, ist eine internetbasierte Lösung meist die erste Wahl. Aus Sprache - und zunehmend auch Videobildern - werden dann Bits und Bytes, die mittels der TCP/IPProtokolle zum Gesprächspartner eilen. In naher Zukunft dürften die meisten terrestrischen Kommunikationsnetze darauf aufbauen. Diese Entwicklung ist alles andere als selbstverständlich. Man sollte doch meinen, dass etablierte, eigens für die jeweilige Anwendung ersonnene und optimierte Verfahren im Vorteil wären. Doch das Internet punktet mit einer einfachen und einheitlichen Infrastruktur, die viele verschiedene Kommunikationsdienste unterstützen kann. Ob Telefonieren, Online-Banking oder E-Mailen - letztlich sind das alles nur Daten, die päckchenweise zu verschicken sind. Auf Grund der universell einsetzbaren Protokolle lassen sich neuartige Dienste einfach einbinden, was in den spezialisierten Telefonnetzen der Vergangenheit nur schwer möglich war. Erst das Internet macht auch den Computer zum universellen Arbeitsmittel. Die Verknüpfung verschiedener Kommunikationsdienste wie Online-Bestellungen, Dokumentenverarbeitung, Ablaufsteuerung und dergleichen vereinfacht Geschäftsvorgänge und steigert damit ihre Effizienz. Allein schon dank der vereinheitlichten Infrastruktur sollten Kommunikationskosten in Unternehmen wie in Privathaushalten langfristig sinken. Darüber hinaus ist die benötigte Technologie zunächst vergleichsweise einfach, also auch günstiger herzustellen. Dringen universell einsetzbare Komponenten immer wieder in neue Bereiche vor, erschließt sich ihnen ein Massenmarkt, was ihre Kosten senkt. Allerdings gibt es inzwischen auch einen gegenläufigen Trend: Mit jeder neuen Anwendung wachsen die Anforderungen an die Komponenten und damit an deren Komplexität. Doch allmählich werden auch Grenzen sichtbar. So schützen Protokolle nach TCP/IP-Standard die Daten oft nicht ausreichend gegen Angriffe oder unberechtigten Zugriff, und einige Konzepte, die für die Großrechnerlandschaft der 1970er Jahre optimal waren, erweisen sich heute als problematisch. Das Internetprotokoll wurde deshalb bereits erweitert, doch diese Ergänzungen weisen immer noch Schwächen auf. Ein Beispiel ist die ursprüngliche Annahme, dass Computer über lange Zeit an derselben Internetadresse zu erreichen sind. Heutige mobile Computer wechseln aber als Laptops oder moderne Mobiltelefone häufig ihre Internetadresse, wenn sie sich über unterschiedliche Zugänge in das Netz einbinden.
    Europäische Forschungseinrichtungen leisten wichtige Beiträge, um seine Zukunft zu sichern. Wichtige, von der Europäischen Union geförderte Projekte im Problemfeld »Internet und Mobilität« sind zum Beispiel Daidalos und Ambient Networks, in denen die meisten Hersteller von Kommunikationstechnologien, Netzbetreiber sowie führende Forschungsinstitute und Universitäten kooperieren. Wer mit seinem Notebook auf eine Geschäftsreise geht, möchte jederzeit wichtige Informationen abrufen können, ob im Büro des Kunden, unterwegs in der Bahn oder im Auto. Zwangsläufig wechselt er dabei den Netzzugang. Ein solcher »Handover« bedeutet oft auch einen Wechsel der die Verbindung herstellenden Hardware. Der Schreibtisch-PC verwendet vielleicht einen Anschluss via Ethernet-Kabel, im Konferenzraum erfolgt die Einwahl drahtlos über einen WLAN-Router, auf der Reise wird die Infrarot- oder Bluetoothschnittstelle des Handys genutzt. Dieser Technikwechsel muss automatisch erfolgen, ohne den Nutzer zu behelligen. Das Handy als Vorbild Mit dem Handover geht mitunter zudem ein Wechsel des Internetanbieters, des Providers, einher. Mobiltelefone hätten niemals den bekannten Boom erlebt, wären Anrufe auf ein bestimmtes Gebiet beschränkt gewesen. Doch ohne dass es der Telefonierende bemerkt, machen Handys jeden Ortswechsel mit und suchen sich selbstständig einen neuen Zugangsknoten zum Mobilfunknetz, gegebenenfalls auch einen neuen Netzanbieter. Das zukünftige, universelle Internet muss in gleicher Weise eine Vielfalt von Zugangstechnologien in eine gemeinsame Infrastruktur integrieren, die von allen Netzbetreibern unterstützt wird. Wichtige Komponenten einer solchen Infrastruktur sind die Identitätsprüfung von Nutzern und im Gegenzug auch von Netzanbietern. Des Weiteren sollten die Protokolle in der Lage sein, mit schnellen Wechseln zwischen sehr unterschiedlichen Netzwerken zurechtzukommen; auch ein Handover von einem breitbandigen DSL-Anschluss zu einem langsameren Funknetz darf keinerlei Probleme bereiten. Außerdem müssen die dabei eingesetzten Protokolle Verbindungsabbrüche oder Pausen besser verkraften können als heute. Und noch eine Barriere dellte fallen - die klassische Aufteilung in Server und Endgeräte. In de genannten Ad-hoc-Netzen kommunizieren Computer direkt miteinander, jeder übernimmt Teile der Übertragungsaufgaben, die üblicherweise ausgewiesene Knotenrechner und Server erledigen. Ein Wohngebiet ohne allgemeine Breitbandversorgung könnte auf diese Weise von einem einzelnen Anschluss an das Internet profitieren: In das Ad-hoc-Netzwerk eingebunden, diente ein Rechner mit Internetzugang als Relaisstation, die diesen Anschluss von Nachbar zu Nachbar weiterreicht. In gleicher Weise lässt sich ein einzelner Netzzugang von einer Gruppe Geschäftsreisender gemeinsam nutzen.
    Kombiniert man diese Technik mit Mobilität, landet man bei Visionen der Fahrzeugkommunikation. Drahtlos dellen Kraftfahrzeuge unablässig Daten austauschen. Eine wichtige Anwendung wäre die Warnung vor Gefahrenstellen innerhalb des relevanten Gebiets, eine andere ist die Versorgung jedes Fahrzeugs mit einem Internetzugang. Wer unterwegs ist, möchte vielleicht erfahren, wo die nächste Tankstelle ist oder welche Sehenswürdigkeiten die gerade durchfahrene Region zu bieten hat. Jedes entsprechend ausgestattete Automobil wäre dann ein Knoten, der solche Daten weiterleiten kann. Dazu muss sich das Netz spontan selbst organisieren. Die Wegewahl für Datenpakete folgt nicht mehr wie im Internet üblich auf vorbestimmten Routen, sondern wird anhand der Positionen der Rechner immer wieder neu bestimmt. In den vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekten »FleetNet - Internet an the Road« und »Not - Networks an Wheels« arbeiten Automobilhersteller und Kommunikationsfirmen an der Entwicklung solcher Systeme. Allerdings ist mit einer Markteinführung nicht vor 2010 zu rechnen. Sonderfall Sendernetze Apropos Automobil: Um sicherheitsrelevante Daten in Fahrzeugen zu erfassen, werden zunehmend auch Sendernetze verwendet. Diese bestehen aus sehr kleinen und verteilten Senderen, deren einzige Aufgabe es ist, permanent Daten zu sammeln und bei Bedarf dem Steuerrechner zu übermitteln. Solche Netze können wichtige Aufgaben übernehmen, wie die Überwachung des Straßenzustands oder Warnungen vor Regen- und Eisglätte. Andere kontrollieren, dass im Fahrzeuginnenraum überall angenehme Temperaturen herrschen. Im Sinn einer durchgängigen Infrastruktur müssten solche Netze in das Internet eingebunden werden. Allerdings sind dessen Protokolle für eine de einfache Kommunikation schon zu umfangreich. Andererseits wären um die entsprechenden Funktionen aufgerüstete Senderen unnötig teuer. Änderungen der Internetprotokolle wären eine Möglichkeit, das Problem zu lösen. Noch ein Wort zum Netzmanagement. Wer zu Hause einen PC mit Internetzugang betreibt, hat ihn wahrscheinlich selbst eingerichtet und weiß, dass dies selten ohne Probleme abgeht. Schon das DSL- oder ISDN-Modem in Betrieb zu nehmen, Windows und eine Firewall zu konfigurieren, erfordern Geduld und Frustrationstoleranz. Professionelle Systemadministratoren müssen sich mit inkompatiblen Gerätetreibern und Softwareversionen herumschlagen, um ein Netzwerk endlich in Gang zu setzen und in Betrieb zu halten - bis zum nächsten Update. Das allgegenwärtige Internet der Zukunft aber wird um ein Vielfaches komplexer werden, denn es bindet sehr heterogene Endgeräte und Dienste ein - vom Notebook über Heimkino und Telefon bis zur Fernwartung der Heizungsanlage, von der Videokonferenz über die Verwaltung von Lagerbeständen bis zu Radio-Frequency Identification(RFID)-Etiketten. Manche dieser Geräte bieten nur eine Basisfunktionalität für die Internetkommunikation, andere sind de leistungsstark wie ein Server. Damit wachsen die Anforderungen an die Administratoren. Mit anderen Worten: Konfiguration und Wartung der Netze müssen weit gehend automatisiert ablaufen. Davon profitieren zuerst einmal die Anwender, aber auch die Netzanbieter, deren Betriebs- und Supportkosten sinken. Wohin wird diese Entwicklung letztlich führen? Durch die Integration immer neuer Anwendungen und Technologien scheint die ursprüngliche Stärke des Internets bedroht: seine Einfachheit und universelle Einsetzbarkeit. Hinzu kommen massive Probleme mit der Datensicherheit (siehe Kasten links). Daher stellen sich einige Forscher inzwischen die Fragen: Wohin entwickelt sich das Internet? Wird es eines Tages sogar durch ein neues Netz abgelöst? Schlüssige Antwort darauf sind allerdings noch nicht in Sicht."
  17. Siemes, V.: Mittelstand muss die Scheu vorm Internet überwinden : Neue Medien schaffen neue, ungewohnte Berufe und verlangen von Unternehmen und Mitarbeitern neues Denken (2001) 0.01
    0.008842662 = product of:
      0.035370648 = sum of:
        0.035370648 = weight(_text_:und in 6706) [ClassicSimilarity], result of:
          0.035370648 = score(doc=6706,freq=34.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.30310458 = fieldWeight in 6706, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6706)
      0.25 = coord(1/4)
    
    Abstract
    "Bin ich etwa schon drin, oder was?" "Eher nein!" muss die Antwort lauten, wenn es im Mittelstand um den elektronischen Handel im Internet geht. Lange wurde das enorme Potenzial verkannt, dass hier liegt. Wohlgemerkt, es ist nicht die Rede davon, dass jeder Jante-EmmaLaden" jetzt einen Online-Shop anbieten soll. Vielmehr liegen die Chancen im so genannten B2B-Geschäft, dem elektronischen Geschäftsverkehr zwischen den Unternehmen. Noch bis vor kurzem zeigte sich der deutsche Mittelstand bei Themen wie E-Commerce eher verschlossen. Als Ursache sind unzureichende Kenntnisse der geschäftlichen Möglichkeiten zu nennen. Für den typischen Mittelständler war das Internet lange Zeit lediglich eine Modeerscheinung für eine begrenzte Gemeinschaft von Technikgläubigen. Doch mittlerweile hat es größtenteils die Kinderkrankheiten - langsame Ubertragungszeiten, teure Kommunikationskosten, mangelnde Verfügbarkeit, geringe Sicherheit, fehlende Rechtsverbindlichkeit - überstanden. In der Politik entsteht zunehmend ein Bewusstsein dafür, dass das Internetrecht zügig weiter entwickelt werden muss. Gerade das Thema Sicherheit ist bei vielen Mittelständlern noch ein Hemmnis auf dem Weg ins Netz. Die Unternehmer wollen aber in wachsendem Maße das Internet Effizienz bringend für sich zu nutzen. Viele Arbeitsoder Verwaltungsabläufe in den Betrieben werden sich in Zukunft wesentlich einfacher und schneller und damit kostengünstiger abwickeln lassen. Als weiteren Grund für die lange andauernde Abstinenz des deutschen Mittelstandes im Internet wird von vielen Unternehmern der Mangel an qualifizierten Mitarbeitern genannt. Offensichtlich gelingt es in Deutschland kaum, Interesse für Berufe wie "Online-Redakteur" oder "Webdesigner" zu wecken. Vielleicht ist es aber auch jene konservative, väterliche Empfehlung "lieber einen richtigen Beruf auszuüben". Selbstverständlich ist es für den ein oder anderen schwierig, seinen Nachwuchs in dem Wunsch zu unterstützen, einen Beruf zu erlernen den es vor zwei Jahren überhaupt noch nicht gab - ja sogar die bloße Vorstellung, dass eine solche Tätigkeit je mals gebraucht werden könnte, war nicht möglich.
    Oder hätten Sie jemals gedacht, dass es einen Beruf geben wird wie Internet-Trend-Scout? Durch die Neuen Medien entstehen völlig andersartige Bedarfsfelder und Anforderungsprofile. Die GenoTec GmbH, deren Kernaufgabe es ist, Volksbanken und Raiffeisenbanken sowie deren mittelständische Firmenkunden bei der Einführung und Optimierung von Internet, E-Commerce, Knowledge-Management oder Workflow zu unterstützen, stellt beispielsweise fest, dass sowohl der Einzelne als auch die Unternehmen in der wachsenden Informationsflut förmlich ertrinken. Die Hilflosigkeit wird verdrängt, indem leider auch die Informationen verdrängt werden. Hier wäre es Aufgabe eines so genannten "Wissens-Brokers" Informationen respektive Wissen zu analysieren, ordnen und zur rechten Zeit am rechten Ort zur Verfügung zu stellen. Gerade der Mittelständler wird verstärkt auf solche Lotsen angewiesen sein, die ihm den Weg durch den Informationsdschungel weisen. Auch die Funktion eines Content-Managers für die jeweiligen E-Commerce-Angebote wird in einer wachsenden Zahl von Unternehmen gebraucht. Denn es ist von größter Bedeutung, ständig interessante und aktuelle Inhalte, die obendrein den neuesten Design-Techniken entsprechen, im Rahmen des Internet-Auftritts bereitzustellen. Häufig ist den Unternehmern noch nicht klar, dass sie für diese neuen Funktionen auch in der Regel "neue Mitarbeiter" benötigen, die ein anderes Anforderungsprofil mitbringen als der klassische EDV-Administrator. Neben sehr guten IT-Kenntnissen, ist auch organisatorisches, betriebswirtschaftliches oder redaktionelles Know-how erforderlich.
    Spätestens hier wird klar, dass es sich um einen Teufelskreis handelt: wenn nicht transparent ist, dass anderes Know-how erforderlich ist, wird das auch nicht nachgefragt und zu wenige Berufsstarter interessieren sich für die neuen Berufe haben ihre Wurzeln in einer gewissen Trägheit unseres Bildungssystems. Insbesondere Medienkompetenz muss zu einem zentralen Bildungsziel werden. Medienkompetenz bedeutet, mit Hilfe von neuen Techniken Informationen suchen, selektieren, bewerten, sinnvoll anwenden und mit anderen Menschen elektronisch kommunizieren zu können. Selbstverständlich reicht es nicht aus, nur Jugendliche und Berufsstarter zu qualifizieren. Auch die Mitarbeiter in den Unternehmen müssen weitergebildet werden. Das Wissen der Mitarbeiter entscheidet immer stärker über den Erfolg eines Unternehmens am Markt. Eine der größten Herausforderungen wird es sein, das Wissen, das zumeist nur in den Köpfen der Mitarbeiter besteht - also nicht in-strukturierter oder dokumentierter Form vorliegt irgendwie nutzbar zu machen. Daher heißt das Schlüsselwort hierzu: Knowledge-Management. Zunächst gilt es aber, die Medienkompetenz der Mitarbeiter zu steigern: Es muss nach neuen Formen der Wissensvermittlung gesucht, neue Wege des Lernens müssen entwickelt und Konzepte für lebenslanges Lernen gefunden werden. Hier gilt es, Bewusstsein zu bilden und auch die bereits vorhandenen zukunftsweisenden Ansätze in den Unternehmen zu propagieren. Diese Ziele verfolgte im vergangenen Jahr der Förderpreis Innovativer Mittelstand der Volksbanken und Raiffeisenbanken. Der diesjährige Wettbewerb zum Thema "Qualifiziert für die Wissensgesellschaft" soll zeigen, welche beruflichen Perspektiven neue Medien im Mittelstand eröffnen und eine Plattform für neuartige Berufsbilder und Qualifizierungskonzepte bieten. Dieser Wettbewerb wird von der Hessischen Technologiestiftung GmbH unterstützt
  18. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.01
    0.008842662 = product of:
      0.035370648 = sum of:
        0.035370648 = weight(_text_:und in 2475) [ClassicSimilarity], result of:
          0.035370648 = score(doc=2475,freq=34.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.30310458 = fieldWeight in 2475, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2475)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.
  19. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.01
    0.008842662 = product of:
      0.035370648 = sum of:
        0.035370648 = weight(_text_:und in 2646) [ClassicSimilarity], result of:
          0.035370648 = score(doc=2646,freq=34.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.30310458 = fieldWeight in 2646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2646)
      0.25 = coord(1/4)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
  20. Hedden, H.: Indexing specialities : Web Sites (2007) 0.01
    0.008842662 = product of:
      0.035370648 = sum of:
        0.035370648 = weight(_text_:und in 2146) [ClassicSimilarity], result of:
          0.035370648 = score(doc=2146,freq=34.0), product of:
            0.11669454 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0526149 = queryNorm
            0.30310458 = fieldWeight in 2146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2146)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."

Years

Languages

  • d 1328
  • e 78
  • m 14
  • More… Less…

Types

  • a 1117
  • m 204
  • s 59
  • el 55
  • x 32
  • r 5
  • i 4
  • h 2
  • ? 1
  • b 1
  • l 1
  • More… Less…

Subjects

Classifications