Search (1421 results, page 41 of 72)

  • × theme_ss:"Internet"
  1. Hutzler, E.: Wege zu einer informativen nutzerorientierten Bibliothekswebsite (2002) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2098) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2098,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2098, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2098)
      0.25 = coord(1/4)
    
    Abstract
    Ein eigener Web-Auftritt ist heute für die meisten Bibliotheken selbstverständlich. Er bietet vielfältige Möglichkeiten, Serviceleistungen der Bibliothek einer breiten Öffentlichkeit rund um die Uhr anzubieten und das herkömmliche Leistungsspektrum um elektronische Dienste zu erweitern. Eine gelungene Website fördert die Zufriedenheit der Benutzer und bietet die Chance, ein neues auch räumlich entferntes Klientel als potenzielle Nutzer anzusprechen. Um diese Potenziale tatsächlich auch ausschöpfen zu können, müssen die Websites von Bibliotheken für ihre Besucher interessant und attraktiv sein. Dies stellt eine große Herausforderung dar. Weiche Aspekte dabei zu berücksichtigen sind, worin Defizite bestehen und welcher Handlungsbedarf daraus resultiert, wurde auf dem von der Kommission für Benutzung und Information des EDBI im November 2001 durchgeführten Round-Table "Bibliothekarische Websites" diskutiert (siehe dazu den Beitrag von Benno Homann in diesem Heft). Einig waren sich die dort zusammen gekommenen Experten darüber, dass die Websites von Bibliotheken stärker als bisher nutzerorientiert ausgerichtet sein sollten. Dies gilt auch und im Besonderen für deren Inhalte. Es lohnt sich daher, genauer darüber nachzudenken, was im Web angeboten werden soll und wie die Inhalte nutzerorientiert präsentiert werden können. Die folgenden Ausführungen liefern keine umfassenden Antworten auf diese Fragen, sondern sind eher als Anregungen zu verstehen, dem Ziel einer informativen nutzerorientierten Website näher zu kommen. Dieses Ziel wird wohl nie endgültig zu erreichen sein, aber es regt immer wieder dazu an, neue Wege der Annäherung zu suchen.
  2. Herb, U.: Wege zur psychologischen Fachinformation : Eine Bilanz aus der Virtuellen Fachbibliothek Psychologie (2002) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2177) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2177,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2177, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2177)
      0.25 = coord(1/4)
    
    Abstract
    1998 regte die Deutsche Forschungsgesellschaft (DFG) im zweiten Teil des Memorandums zur "Weiterentwicklung der überregionalen Literaturversorgung" die Bildung Virtueller Fachbibliotheken an. So entstand für die Sondersammelgebietsbibliotheken "die Verpflichtung, zusätzlich zu den umfassend erworbenen Medien, wie Büchern und Mikroformen, auch (...) elektronische Informationen zu erschließen und den Benutzern in geeigneter Form zur Verfügung zu stellen." Da die Saarländische Universitäts- und Landesbibliothek (SULB) seit 1966 das Sondersammelgebiet (SSG) Psychologie betreut, ergab sich für sie die Chance, im Rahmen des Förderkonzeptes der DFG die Virtuelle Fachbibliothek Psychologie einzurichten. Die DFG fördert eine Reihe Virtueller Fachbibliotheken, die unter dem gemeinsamen Dach VIFANET zusammengeschlossen sind. Die klassischen Aufgaben des SSG, Sammlung und Erschließung wissenschaftlicher Literatur, wurden ergänzt durch die Einbeziehung von elektronischen Dokumenten. Dieses Vorhaben wurde am SSG Psychologie zum 1. Oktober 1998 in Angriff genommen. Am 31. August 2002 endete die Förderung des Projektes durch die DFG: Grund genug, im Rahmen der Artikelreihe des BIBLIOTHEKSDIENST über die Virtuellen Fachbibliotheken Bilanz zu ziehen. Dabei werden zunächst die Zielsetzungen des Projektes rekapituliert und seine Entwicklung skizziert. Vor allem sollen einzelne Arbeitsschritte und Methoden transparent gemacht werden, mit denen die Angebote der Virtuellen Fachbibliothek Psychologie entwickelt wurden. Nach einem Fazit wird schließlich ein Ausblick auf mögliche und nötige Weiterentwicklungen gegeben.
  3. Meißner, B.: ViFaArt: eine virtuelle Fachbibliothek zur Gegenwartskunst (2004) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 3409) [ClassicSimilarity], result of:
          0.036679503 = score(doc=3409,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 3409, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3409)
      0.25 = coord(1/4)
    
    Abstract
    Virtuelle Quellen zur Kunst-Erschließung und Recherchewar das Thema eines Workshops, der am 16. Oktober 2003 in der Sächsischen Landesbibliothek - Staats- und Universitätsbibliothek Dresden (SLUB) veranstaltet wurde. Anliegen war die Präsentation des DFG-geförderten Projektes ViFaArtVirtuelle Fachbibliothek Gegenwartskunst. Im Folgenden wird dieses Projekt näher vorgestellt. Schwerpunkt der Darstellung wird der hierbei entwickelte Katalog von Webseiten bzw. Internetquellen sein (Art-Guide). Die Auseinandersetzung mit Internetquellen und ihre Nutzung für die Informationsgewinnung ist auch für die Kunstwissenschaft zum aktuellen Thema geworden. Eine Hauptaufgabe des World Wide Web liegt neben dem schnellen und direkten Informationsaustausch in der Vermittlung von Information - einem Hauptanliegen wissenschaftlicher Bibliotheken überhaupt. Somit rückt die Problematik auch immer näher an den Aufgabenkreis von Bibliotheken heran. Es stellen sich Fragen wie: Welche Art von Informationen liegen im Web bereit, sind sie vertrauenswürdig, wie kann man sie nutzen und vor allem: wie sind sie zu finden? Seit 2000 wird an der SLUB eine Virtuelle Fachbibliothek zur Gegenwartskunst projektiert: ViFaArt. Das Projekt ist Partner von Vascoda, dem interdisziplinären Internetportal für wissenschaftliche Information in Deutschland. Unter http:// www.vascoda.de/sind Online- und Print-Informationen von derzeit über 20 Virtuellen Fachbibliotheken, 4 Informationsverbünden und der Elektronischen Zeitschriftenbibliothek (EZB) abrufbar. Anfang des nächsten Jahres wird auch ViFaArt den Katalog der Internetquellen (Art-Guide, vgl. unten) als Datenbank dort einbringen. Eine Metasuche über Vascoda wird dann also immer auch alle ArtGuide-Katalogisate berücksichtigen.
  4. Christof, J.; Fingerle, B.; Heyke, K.: Verbundkatalogisierung von Internetquellen (2004) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 3600) [ClassicSimilarity], result of:
          0.036679503 = score(doc=3600,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 3600, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3600)
      0.25 = coord(1/4)
    
    Abstract
    Die intellektuelle Auswahl und Erschließung von - oftmals dynamischen - Informationsobjekten, auf die über das Rechnernetz Internet zugegriffen werden kann, ist eine ressourcenintensive Aufgabe, deren Notwendigkeit jedoch mangels Alternativen weitgehend unbestritten ist. In fachlich benachbarten Disziplinen weisen dabei Segmente wissenschaftlich relevanter Internetquellen einen hohen Überschneidungsgrad auf. Um eine personalintensive Doppelerschließung durch verschiedene Akteure zu vermeiden, ist die Verbundkatalogisierung von Internetquellen ein vielversprechender Ansatz. Denn kooperative Quellenerschließung und -pflege reduziert den Aufwand der Beteiligten bei gleichzeitiger Ausweitung des zur Verfügung stehenden Materialfundus. Die Präsentation von Teilmengen der erstellten Metadaten gegenüber dem Publikum erfolgt fachspezifisch in der Gestalt von speziellen Fachinformationsführern (»Metadata Sharing«). In der Theorie führt dieser Ansatz somit zu Kooperationsgewinnen und einem optimierten Ressourceneinsatz. Dass dieser Ansatz auch in der Praxis effizient umgesetzt werden kann, soll anhand des Praxisbeispiels der »Verbunddatenbank Internetquellen - VI« im Detail dargelegt werden. INTERNETQUELLEN ALS WISSENSCHAFTLICHE INFORMATIONSRESSOURCE Die Zahl wissenschaftlich relevanter Internetquellen nimmt in allen Disziplinen dramatisch zu. Folglich wächst auch die Bedeutung des Netzes für erfolgreiches wissenschaftliches Arbeiten. Publikationen sowie forschungsrelevante Informationen aller Art finden sich immer häufiger zunächst - oder ausschließlich - im Netz. So verwundert es nicht, dass das Internet unter den Beschaffungsquellen wissenschaftlicher Informationen einen immer größeren Stellenwert einnimmt. Eine Befragung von Wissenschaftlerinnen und Wissenschaftlern für eine Nutzungsanalyse im System der überregionalen Literatur- und Informationsversorgung ergab beispielsweise, dass den am häufigsten genutzten Informationsbeschaffungsweg mit 58% das Internet darstellt, gefolgt von gedruckten Beständen der örtlichen Bibliotheken und lokal verfügbaren Datenbanken oder elektronischen Zeitschriften mitjeweils je 40% (Mehrfachnennungen möglich). Suchmaschinen spielen für die Informationssuche eine herausragende Rolle. So gaben 55% der Befragten an, dass sie mehrmals pro Woche Suchmaschinen für Recherchen im Internet nutzen, obwohl ihnen die im folgenden Abschnitt dargelegten Defizite durchaus bekannt sein dürften.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.3, S.152-158
  5. Quandt, M.: sowinet.de - ein Internetjournal mit Berichten aus den Sozialwissenschaften : Ziele und Konzept einer neuen Informationsplattform (2004) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 4151) [ClassicSimilarity], result of:
          0.036679503 = score(doc=4151,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 4151, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4151)
      0.25 = coord(1/4)
    
    Abstract
    Im Vergleich zu den Naturwissenschaften finden die Sozialwissenschaften deutlich weniger öffentliches Interesse. Die Gründe kann man auf Seiten der Öffentlichkeit wie der Wissenschaft vermuten. Das hier vorgestellte Projekt sowinet.de verfolgt das Ziel, das potenziell wissenschaftsinteressierte Internetpublikum auch für gesellschaftswissen schaftliche Themen zu gewinnen, indem ein in mancher Hinsicht neuartiges Angebot präsentiert wird. Bei der Darstellung sollen verschiedene Vorteile des Mediums Internet kombiniert und integriert werden, um unterschiedliche Gruppen von Nutzern anzusprechen. Um dies zu erreichen, muss erstens ein Paket von aktuellen Informationen, Hintergrundmaterial und Dienstleistungen geschnürt werden, das auch Multiplikatoren wie Journalisten und Lehrer an das Angebot von sowinet.de binden kann. Statt kanonisiertes Wissen zu vermitteln soll dazu ein Ausschnitt des aktuellen Forschungsgeschehens vorgestellt werden. Zweitens müssen durch eine ästhetisch und technisch zeitgemäße Präsentation die Mediengewohnheiten von Intemetnutzern berücksichtigt werden. Dieser Beitrag stellt als Werkstattbericht aus dem laufenden Projekt einige Aspekte näher vor. Ein Schwerpunkt liegt auf Überlegungen zu den Interessen unterschiedlicher Zielgruppen im Umgang mit wissenschaftlicher Information.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  6. December, J.; Randall, N.: World Wide Web für Insider : [Zugang zum World Wide Web und zu Multimedia im Internet; alle wichtigen Browser unter Windows, Unix oder für den Mac; Entdeckungsreise durch virtuelle Museen, Kaufhäuser, Zeitschriften und vieles mehr] (1995) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2577) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2577,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2577, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2577)
      0.25 = coord(1/4)
    
    Abstract
    Ein Team von Internetexperten führt Sie durch jeden Winkel des World Wide Web, präsentiert Ihnen die besten Adressen und beschreibt detailliert alle Techniken zum Auffinden und zur Übertragung von Informationen. Sie werden die ganze Bandbreite der aktuell auf dem Web verfügbaren Clientprogramme kennenlernen. Sie erfahren alle notwendigen Tricks für die Navigation im WWW und die Suche nach Themen, Schlüsselbegriffe und Informationsräume und erhalten alle notwendigen Informationen für den Aufbau eigener Seiten im Web.
  7. Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2671) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2671,freq=56.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2671, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2671)
      0.25 = coord(1/4)
    
    Content
    "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
    Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
    Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
    Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
  8. Beuth, P.: Sternzeichen Google (2008) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
          0.036679503 = score(doc=3298,freq=56.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 3298, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3298)
      0.25 = coord(1/4)
    
    Content
    "Basti mag Emails nicht besonders. Sie sind ihm zu langsam, weil man immer so lange warten muss, bis sie beantwortet werden. Mit seinen Freunden tauscht sich der 17-Jährige nur über den Instant Messenger ICQ aus. Was für Mittdreißiger zum zentralen Kommunikationsmittel geworden ist, sehen Jugendliche längst als veraltet an: Schon 2005 hat eine Studie des "Pew Internet & American Life Project" ergeben, dass Jugendliche nur noch Emails schreiben, wenn sie mit Erwachsenen kommunizieren. Urs Gasser, Professor an der Universität St. Gallen, kennt zahllose Jugendliche wie Basti. Er nennt sie Digital Natives. Sie sind hineingeboren in eine Welt mit Internet und Handy, mit MP3 und Flatrate. Ein Leben ohne Google kennen sie nicht. Zusammen mit Professor John Palfrey erforscht Gasser die Digital Natives am Berkman Center for Internet and Society in Harvard. Darüber haben die beiden ein Buch geschrieben, es heißt "Generation Internet". US-Experten preisen es als Grundlagenwerk und Pflichtlektüre für Eltern und Lehrer. Denen will das Buch helfen, die Digital Natives besser zu verstehen. Es soll erklären, wie sie lernen, arbeiten und kommunizieren, und wie sie sich dabei von anderen Generationen unterscheiden. "Es ist der Anfang einer Konversation über die Chancen und Herausforderungen, die mit dieser neuen digitalen Welt verbunden sind", sagt Gasser im Gespräch mit der FR. "Es ist geschrieben für jene Generationen, die nicht den gleichen Einblick haben in die Welt des Internets."
    Identität aus dem Netz Es ist eine Welt, in der sich Zwölftklässler wie Basti mit traumwandlerischer Sicherheit bewegen: Etwa vier Stunden lang ist er nach der Schule jeden Tag im Netz, doppelt so lange wie der Durchschnittsdeutsche. Sein Handy ist immer an, er ist rund um die Uhr erreichbar. Er besitzt etwa 30 CDs, aber zehnmal so viele Alben im MP3-Format. Gegen Bezahlung bastelt er in seiner Freizeit Webseiten für andere Leute. Basti hat noch nie einen Computer zur Reparatur geben müssen. Einen neuen Hauptprozessor einzusetzen oder eine passende Grafikkarte zu finden, ist für ihn ein Klacks. Seit er zwölf ist, schraubt er an seinen Rechnern herum und behebt alle technischen Probleme selbst. Er kauft kein Produkt, ohne sich vorher in Foren und Blogs die Meinungen anderer dazu angesehen zu haben. Jedes seiner Referate beginnt mit der Recherche bei Google und Wikipedia, gefolgt von Universitäts-Webseiten. "Für wirklich wichtige Arbeiten gehe ich auch in die Bibliothek", sagt er. Viele Ältere haben solche Verhaltensweisen adaptiert. Gasser und Palfrey nennen sie Digital Immigrants, eingewandert aus der analogen in die digitale Welt. Doch sie werden nie ganz wie die Natives leben, weil sie im Gegensatz zu denen nicht schon mit digitalisierten Fotos, Tagebüchern und Freundschaften aufwachsen, schreiben die Professoren. Nicht nur ihre technische Nutzung, sondern auch der Drang, ihre Identität vor allem im Internet zu entwickeln, unterscheide die Digital Natives von ihren Vorgängern. Wer sich mal durch einige MySpace-Profile klickt und mit atombusigen GoGo-Girl-Avataren in Second Life spricht, weiß, was die Autoren meinen. Auf MySpace wimmelt es nur so von Profilfotos, die auch gut auf ein Plattencover passen würden. Fast alles ist gestellt, und zwar auf maximal cool. Und hinter den aufreizenden Model-Avataren stecken manchmal schüchterne 13-jährige Mädchen. So wie sich die Digital Natives darstellen, so wollen sie wahrgenommen werden. Pseudonyme wie "darkangel" oder "electrogirl" drücken aus, zu welcher Szene sie gehören wollen.
    Ihre Tagebücher sind jedermann zugänglich und miteinander verlinkt. Gasser und Palfrey werfen den Digital Natives deshalb auch vor, mitunter wandelnde Datenschleudern zu sein. So zitieren sie etwa aus einer Studie von 2007, nach der 41 Prozent aller Facebook-Nutzer bereit sind, einem völlig Fremden persönliche Informationen mitzuteilen. Nina aus der Nähe von Bonn war auch mal so. Früher konnte jeder sehen, in welchem Ort sie lebte, wie sie aussah und unter welcher ICQ-Nummer sie erreichbar war. "Ich habe dann ständig Nachrichten von irgendwelchen Männern bekommen, die schrieben, wie hübsch ich doch sei." Nach einem Seminar in ihrer Schule änderte sie ihre Einstellung: "Eine Polizistin kam in die Klasse und erklärte uns, wie leicht es ist, jemanden anhand solcher Daten ausfindig zu machen und zu verfolgen." Seitdem ist Nina Datenschützerin in eigener Sache. Zwar ist die 19-Jährige Mitglied sowohl bei Facebook als auch bei SchülerVZ und StudiVZ, aber ihre Profile sind nur für Freunde einsehbar, die sie selbst eingeladen hat. Links auf Blogs oder Fotoalben gibt es bei ihr auch nicht. Wer sie googelt, findet nur Einträge zu einer anderen Person mit dem gleichen Namen. Das kontrolliert sie regelmäßig selbst, indem sie nach ihrem Namen und ihren diversen Email-Adressen sucht. "Ich will nicht, dass irgendeiner sieht, die wohnt da und da, ist Single und so weiter. Ich gebe nirgendwo mein richtiges Geburtsdatum oder meine Telefonnummer an. Wer die Daten kennen soll, kennt sie", erzählt die Abiturientin.
    Eltern sollen von Kindern lernen Für Gasser ist das eine gute Nachricht. Denn je mehr das Internet zur wichtigsten Informationsquelle wird, desto wichtiger wird es, mit diesen Informationen umgehen zu können. Dabei machen die Digital Natives insgesamt eine gute Figur, sei es bei der langsam zunehmenden Sensibilisierung für den Datenschutz oder der überraschend gut ausgeprägten Fähigkeit, Informationen auf ihren Wahrheitsgehalt überprüfen zu können: "Je mehr man sich im Netz bewegt, desto größer ist interessanterweise die Kompetenz im Umgang mit dem Medium", fasst Gasser entsprechende Studien zusammen. Wenn es etwa darum geht, die Qualität eines Wikipedia-Artikels zu überprüfen, nutzen diejenigen, die länger im Netz sind, diese Zeit auch, um die Quellen des Artikels zu überprüfen und zu vergleichen. Dass viele Menschen künftig praktisch rund um die Uhr online sein werden, ist Gasser und Palfrey bewusst. Schon jetzt nutzen zehn Millionen Deutsche das mobile Web, in Japan so gut wie jeder. Die Forscher fordern deshalb Eltern und Lehrer auf, "ihre Kenntnis der Digitaltechnik zu verbessern" - dabei könne ihnen niemand so gut helfen wie die Digital Natives selbst. Erwachsene bräuchten unbedingt "ein eigenes Verständnis davon, wie diese Technologie funktioniert, die unsere Kids tagein, tagaus nutzen." Vor allem diejenigen, die immer noch diese rückständigen, langsamen E-Mails schreiben."
    Footnote
    Rezensionsartikel zu: John Palfrey, John und Urs Gasser: Generation Internet: Die Digital Natives: Wie sie leben - Was sie denken - Wie sie arbeiten. München: Hanser Verlag 2008.
  9. Härkönen, S.: Bibliothekarischer Auskunftsdienst im Informationsverbund : Digital Reference Konsortien in den USA (2003) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.036679503 = score(doc=31,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 31, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=31)
      0.25 = coord(1/4)
    
    Content
    Bibliotheken weltweit befinden sich im Wandel. Der Trend der Nutzer, Informationen immer häufiger zuerst, und teilweise sogar ausschließlich, im Internet zu suchen, erfordert Veränderungen in der Konzeption des bibliothekarischen Informationsdienstes. Um den Nutzer dann und dort zu erreichen, wo er Hilfe benötigt, bieten viele Bibliotheken bereits Digital Reference Service, digitalen Auskunftsdienst, an. Zumeist erfolgt dieser allerdings institutionsbezogen von einzelnen Bibliotheken, die dadurch auf synergetische Effekte und Vorteile durch Zusammenarbeit verzichten. Abhilfe könnten Informationsverbünde schaffen, in denen mehrere Bibliotheken arbeitsteilig digitalen Auskunftsdienst anbieten. Ziel dieser Arbeit ist es, die Entwicklung solcher Digital Reference Konsortien in den USA näher zu beleuchten. Um den Einstieg in die Thematik zu erleichtern, werden in einem theoretischen Teil zuerst die Begrifflichkeiten geklärt und die verschiedenen Formen des Digital Reference Service dargestellt. Im weiteren Verlauf der Arbeit wird dann die praktische Anwendung des digitalen Informationsdienstes diskutiert. Zu diesem Zweck wurden repräsentativ zwei innovative US-amerikanische Projekte ausgewählt, die detailliert vorgestellt werden. Ein kurzer Überblick über die historische Entwicklung digitaler Informationsverbünde in den USA soll dabei als Hintergrund für die Einordnung der präsentierten Dienste dienen. Die Erfahrungen, die in diesen sehr unterschiedlichen Projekten gemacht worden sind, dienen anschließend als Basis für Überlegungen, wie derartige Konsortien in Deutschland aufgebaut werden könnten. Organisatorische und strukturelle Anregungen an das deutsche Bibliothekswesen zum Aufbau von kooperativen digitalen Auskunftsdiensten runden die vorliegende Arbeit ab.
    Imprint
    Köln : FH / Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.36
  10. Rötzer, F.: Virtueller Raum oder Weltraum? : Raumutopien des digitalen Zeitalters (1997) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 167) [ClassicSimilarity], result of:
          0.036679503 = score(doc=167,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 167, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=167)
      0.25 = coord(1/4)
    
    Abstract
    Vor der Jahrtausendwende wachsen die Endzeit-Ängste. Man glaubt, über eine Schwelle in ein neues Zeitalter zu gehen, während das alte mit seinen Krisensymptomen hinter einem zusammenbricht. Das symbolische Datum eines Kalenders, der sich durch die Kolonialisierung weltweit verbreitet hat, aber der nichtsdestoweniger willkürlich ist, was die Zählung der Jahre seit dem Punkt Null betrifft, zieht die Menschen in den Bann. Auch ohne Erwähnung des symbolischen Datums wähnen wir uns - was seit der Moderne, die sich selbst diesen Namen gegeben hat, zur permanenten Sorge oder Hoffnung wurde - in einer Situation des fundamentalen Umbruchs. War man bis vor kurzem aber im postmodernen Klima der nuklearen Bedrohung und der Grenzen des Wachstums in einem versperrten Horizont mit dem Blick nach rückwärts eingefangen, der höchstens Zeremonien des Abschieds zuließ, die Intellektuellen zur Predigt der Nachgeschichte und Verdammung des Rationalismus brachte, der Esoterik und anderen Heilslehren zur Konjunktur verhalf und ansonsten nichts Neues versprach, so scheint allmählich das Technoimaginäre das Bewußtein der Menschen zu ergreifen und für neue Utopien zu sorgen. Eingesperrt im Wrack des Raumschiffs Erde sehnt man sich nach einem unbelasteten und freien Raum, der die utopischen Energien bindet, weil er noch leer ist und mit allen Erwartungen gefüllt werden kann. Anders als von vielen prophezeit, wird der Raum im Zeitalter der Virtualität erneut zur Obsession.
  11. Janowitz, K.M.: Netnographie : Ethnographische Methoden im Internet und posttradtionale Vergemeinschaftungen (2013) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1931) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1931,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1931, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1931)
      0.25 = coord(1/4)
    
    Abstract
    Geht es um qualitative Forschung im Internet, gelangt man schnell zu den Methoden der Ethnographie. Während in den frühen Jahren des internets (als die "Neuen Medien" noch "neu" waren) das forschende Interesse v.a. dem Internet als einer eigenen - virtuellen - Welt ,in its own terms' galt, steht in den neueren Arbeiten der kulturelle Kontext, in dem Online-Interaktionen stattfinden und Sinn machen, im Vordergrund. Unabhängig voneinander wurden mehrfach auf das Internet anwendbare ethnographische Ansätze entwickelt. Die bekanntesten stammen von der britischen Soziologin Christine Hine ("Virtual Ethnography") und dem kanadischen Marketer Robert Kozinets ("Netnography"). Die Ansätze unterscheiden sich wenig in ihren Konzepten, mehr in ihren Anwendungsfeldern, die den unterschiedlichen Herkunftsfeldern ihrer Protagonisten entsprechen. Eng verbunden ist das Thema posttraditionaler Vergemeinschaftungen, die über das Internet entstehen, bzw. vorangetrieben werden. Die Teilhabe an Kommunikationsnetzwerken ermöglicht mehr und mehr deterritoriale Vergemeinschaftungen, wenn auch Vergemeinschaftung und soziale Bezüge nie ganz von räumlicher Nähe losgelöst sind. Posttraditionale Vergemeinschaftungen beruhen oft auf ästhetischen Präferenzen, einem als gemeinsam empfundenen Arbeits- und Lebensstil. ALs Prototypen im Internet können Fan-Communities gelten, aber auch translokale Arbeits- und Wissensgemeinschaften. Theoretischer Bezugsrahmen ist u.a. das Konzept des Neotribalismus von Michel Maffesoli ("Le temps des tribus"). In der Marktforschung wurden einzelne Spezikationen zur Netnographie entwickelt.
  12. Simonitsch, P.: Kontrolle ist besser - aber für wen? : In Genf wurde der Weltinformationsgipfel eröffnet - China gibt Widerstand gegen Pressefreiheit auf (2003) 0.01
    0.009077714 = product of:
      0.036310855 = sum of:
        0.036310855 = weight(_text_:und in 2985) [ClassicSimilarity], result of:
          0.036310855 = score(doc=2985,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32090676 = fieldWeight in 2985, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2985)
      0.25 = coord(1/4)
    
    Content
    ""Wir dürfen nicht passiv zuschauen, sondern müssen unser Schicksal selbst in die Hand nehmen", erklärte UN-Generalsekretär Kofi Annan am Mittwoch bei der Eröffnung des "Weltgipfels über die Informationsgesellschaft". Annan sieht einen "historischen Wandel in der Art zu leben, zu lernen, zu arbeiten, zu kommunizieren und Geschäfte abzuwickeln". Delegierte von 175 Staaten, darunter mehr als 60 Staats- oder Regierungschefs, sind zu dieser ersten Weltkonferenz über Information und Kommunikation nach Genf gekommen. Einschließlich der Bosse von Medienkonzernen und der Vertreter von Nicht-Regierungs-Organisationen nehmen rund 15 000 Personen an der Großveranstaltung teil, deren Vorbereitung fünf Jahre in Anspruch nahm. Kofi Annan bemängelte die Schwachstellen beim Aufbau einer weltumspannenden Informationsgesellschaft, die nicht nur mit der technologischen Kluft zwischen dem Norden und dem Süden zu erklären seien. Auch die Inhalte der Leistungen klafften aus-' einander. Ein großer Teil der Webseiten im Internet hätten keinerlei Bezug zu den wirklichen Bedürfnissen der Menschen. Fast 70 Prozent dieser Webseiten seien in englischer Sprache abgefasst. Damit würden lokale Stimmen und Ansichten verdrängt. - Frauen im Nachteil - Außerdem bestehe in der Informationsgesellschaft ein großer Unterschied zwischen den Geschlechtern, sagte Annan, weil Frauen und Mädchen weniger Zugang zu den modernen Technologien hätten als Männer und Jungen. Dies gelte sowohl für die Industriestaaten wie für die Entwicklungsländer. Am Eröffnungstag ergriffen neben anderen politischen Führern der ägyptische Präsident Hosni Mubarak und dessen iranischer Amtskollege Mohammad Khatami das Wort. Die beiden trafen sich anschließend zu vertraulichen Gesprächen über den Nahostkonflikt. Für Robert Mugabe, den' Präsidenten von Simbabwe, musste die Schweiz eine Sonder-Einreiserlaubnis erteilen, weil der Diktator in den meisten europäischen Ländern Aufenthaltsverbot hat. Bei der Fahrt Mugabes von seinem Hotel ins Konferenzzentrum gab es ein Handgemenge zwischen seinen Leibwächtern und Fotografen. Bundeskanzler Gerhard Schröder und Wirtschaftsminister Wolfgang Clement mussten ihre Reise nach Genf wegen der innenpolitischen Debatte in Berlin absagen. Im Namen Deutschlands will am Donnerstag Rezzo Schlauch, Parlamentarischer Staatssekretär im Wirtschaftsministerium, eine Rede halten. Unter den prominenten Politikern beim Weltgipfel sind der französische Ministerpräsident Jean-Pierre Raffarin, der nigerianische Präsident Olusegun Obasanjo und der "Maximo Lider" Kubas, Fidel Castro. Insgesamt sind die westlichen Industriestaaten auf niedrigerer Ebene vertreten als die Entwicklungsländer. Der für Öffentlichkeitsarbeit zuständige stellvertretende UN-Generalsekretär Shashi Tharoor meinte dazu: "Denen, die nicht kamen, kann ich nur sagen, dass sie eine Gelegenheit verpasst haben." Die meisten stritti- gen Fragen waren allerdings vor Eröffnung der Konferenz bereinigt oder an 'Arbeitsgruppen weitergeschoben worden. So wurde gegen den anfänglichen Widerstand Chinas die Meinungs- und Pressefreiheit bestätigt. Die chinesischen Behörden wachen genau darüber, welche Webseiten im Internet die gewöhnlichen Bürger anklicken dürfen. Verhandlungsteilnehmer erwarten nun, dass Peking seine einschränkenden Praktiken in Einklang mit der Erklärung von Genf (unser Bild zeigt die Installation "Hello World" im Genfer See) bringt. Auf die zweite Runde des Informationsgipfels im Jahr 2005 in Tunis vertagt wurde die Frage, wer das Internet "verwalten" soll. Derzeit registriert die mit einer Lizenz der US-Regierung ausgestattete kalifornische Firma "Interne Corporation for Assigned Names and Numbers" (Icann) die Anmeldungen von so genannten "Domaines": Vor allem Brasilien, China, Indien und Südafrika wollen diese Kontrolle den USA entreißen und eine Agentur der Vereinten Nationen mit dem Internet-Management betrauen. Die vorgelegten Pläne sind aber derzeit noch recht vage."
  13. Barabási, A.-L.: Linked: The New Science of Networks (2002) 0.01
    0.009077714 = product of:
      0.036310855 = sum of:
        0.036310855 = weight(_text_:und in 3015) [ClassicSimilarity], result of:
          0.036310855 = score(doc=3015,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32090676 = fieldWeight in 3015, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3015)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Barabási erklärt dem Leser seines Buches darüber hinaus noch, wie es zu solchen Phänomenen kommt. Soziale Prozesse im Netz wirken so, dass bereits bekannte Seiten mit größerer Wahrscheinlichkeit auch wieder weitere Links oder neue Besucher anziehen. Barabási ist Physiker an der Notre-Dame University und ihm fehlt ebenso wie Huberman die informationswissenschaftliche Perspektive. Er fragt also kaum, wie kann das Wissen über Netzwerke zu Verbesserungen in Informationssystemen führen, die Benutzerbedürfnisse besser erfüllen. Gleichwohl lohnt sich die Lektüre auch für Informationswissenschaftler. Barabäsi stellt die aktuelle Forschung zur Netzwerkstruktur des Internets auf einfache Weise fast ohne Zugeständnisse an Aktualität und Komplexität dar. Wie Huberman verzichtet auch er weitgehend auf Formeln und andere Formalismen. Der in Ungarn geborene Barabási lässt darüber hinaus keine Anekdote aus, sei es über die Begründer der Graphen-Theorie, im peer-review abgelehnte Beiträge und persönliche Begegnungen mit anderen Forschern. Barabási beginnt mit einfachen Netzwerkstrukturen und schreitet didaktisch über internet-ähnliche Netzwerke weiter zu Anwendungen und praktischen Beispielen aus unterschiedlichsten Disziplinen. Er schafft mit seinem Buch "Linked" unter anderem Links zwischen der ungarischen Literatur, dem I-Love-You Computer-Virus, der Verbreitung von Aids, den Theorien Einsteins, den Aufsichtsräten der wichtigsten amerikanischen Firmen, dem Al-Qaeda-Netzwerk und der Struktur und der Funktion biologischer Zellen. Zu Beginn seines Buches berichtet Barabási von sogenannten kleinen Welten, in denen viele Objekte über wenige Verbindungen zusammenhängen. Ein Blick in den eigenen größeren Bekanntenkreis mag bestätigen, dass viele Menschen über wenige Schritte zwischen Bekannten erreichbar sind. Sowohl Barabäsi als auch Huberman gehen auf die Geschichte des ersten sozialwissenschaftlichen Experiments zu diesem Thema ein, das in den 1960er Jahren versuchte, die Anzahl von Schritten zwischen gemeinsamen Bekannten zu bestimmen, welche vom Mittleren Westen der USA an die Ostküste führt. Die genauere Struktur solcher Systeme, in denen manche Knoten weitaus mehr Beziehungen zu anderen eingehen als der Durchschnitt, führt hin zum Internet. Im Web lässt sich keineswegs immer ein Pfad zwischen zwei Knoten finden, wie noch vor wenigen Jahren vermutet wurde. Die durchschnittliche Entfernung war damals noch mit 19 Klicks berechnet worden. Vielmehr herrscht eine differenziertere Struktur, die Barabási vorstellt und in der zahlreiche Seiten in Sackgassen führen. Huberman wie Barabási diskutieren auch negative Aspekte des Internet. Während Huberman die Wartezeiten und Staus bei Downloads analysiert, bespricht Barabási die rasante Verbreitung von ComputerViren und weist auf die Grundlagen für diese Gefährdung hin. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  14. Springer, M.: Wie frei bleibt das Internet? : Das neue Medium zwischen Anarchie und Zensur (2011) 0.01
    0.009077714 = product of:
      0.036310855 = sum of:
        0.036310855 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.036310855 = score(doc=386,freq=28.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32090676 = fieldWeight in 386, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=386)
      0.25 = coord(1/4)
    
    Content
    "Kürzlich sah ich mir auf DVD den »Glöckner von Notre-Dame« in der Hollywood-Verfilmung von 1939 an und war schon vom Beginn angetan. Da begutachtet der französische König zusammen mit dem Dompropst Frollo neugierig eine der ersten Buchpressen. Ludwig XI. gibt sich - zumindest in diesem Film - als allem Modernen aufgeschlossener Monarch und lobt das neue Medium des Buchdrucks als Vehikel für Aufklärung und Volksbildung. Der Kirchenmann hingegen wittert im Verlust des klerikalen Meinungsmonopols sofort die Gefahr von Aufruhr und Ketzerei. Die Debatte um Wohl und Wehe des Internets, angeheizt durch Veröffentlichungen unzähliger Geheimdokumente auf der Plattform Wikileaks, baut ähnliche Fronten auf. Die Befürworter begrüßen einen ungeahnten Zuwachs an Informationsfreiheit und bürgerlicher Mündigkeit, während Kritiker vor der riskanten Störung heikler diplomatischer Beziehungen durch Geheimnisverrat warnen. Beunruhigend fand ich als Kreditkartenbesitzer, wie schnell Mastercard und Visa bereit waren, offenbar dem Druck von Regierungen gehorchend, Wikileaks vom Zahlungsverkehr auszusperren und damit in seiner auf Spenden angewiesenen Existenz zu bedrohen. So etwas läuft nach meiner Sicht auf indirekte-ökonomisch gehebelte-staatliche Zensur hinaus.
    Doch so eindeutig sind Gut und Böse im Dreieck Bürger-Staat - Internet nicht verteilt. Nur auf den ersten Blick steht der Einzelne, der sein Recht auf uneingeschränkte Information beansprucht, im Bund mit einem möglichst freien Internet, während der Staat das neue Medium angeblich bloß reglementieren will. Zu einer anderen Einschätzung kommt der Rechtswissenschaftler Tim Wu von der New Yorker Columbia University in seinem Buch »The Master Switch: The Rise and Fall of Information Empires«. Wu untersucht die Geschichte der Medien Radio, Tonträger, Film, Fernsehen und Internet in den USA und demonstriert an zahlreichen Beispielen ein wiederkehrendes Muster: Die jeweils neueste Technik macht Firmen reich, die mit ihrer wirtschaftlichen Macht ein Monopol darauf durchsetzen. Erst die Einführung der nächsten »neuen« Medientechnik bricht die ökonomische Alleinherrschaft. Im Licht von Wus Befund muss ich mein Dreieck zu einem Quadrat erweitern, mit mächtigen Medienkonzernen als viertem Pol. Aktuelle Beispiele wären Google und Apple. Jeder von beiden schickt sich auf seine Weise an, ein geschlossenes System zu organisieren, das sich krakengleich über das Internet ausbreitet, um es möglichst umfassend zu vereinnahmen. Der Grund ist nicht etwa, dass die zwei Möchtegern-Monopolisten »böse« wären - sie sind nur einfach auf expansives Wirtschaften programmiert. Im Viereck Bürger -Staat - Internet -Wirtschaft kommt darum dem Staat laut Wu eine durchaus positive Rolle zu: Er soll verhindern, dass das neue Medium von Konzernen vereinnahmt wird. So könnte etwa eine Kartellbehörde ihr Augenmerk speziell auf geballte Medienmacht im Internet richten. Übrigens: Wissen Sie, warum »Der Glöckner von Notre-Dame« in Hollywood gedreht wurde? Auch darüber gibt Wus Buch Auskunft. Die Firma des Erfinders Thomas Edison kontrollierte Anfang des 20. Jahrhunderts mit ihren Patenten die gesamte Filmtechnik. Unter anderem diktierte sie, dass ein Kinofilm nur wenige Minuten lang sein dürfe, um die Aufmerksamkeit des Publikums nicht zu ermüden. Vor solchen Vorschriften flohen die ersten Filmstudios von der Ostküstenach Kalifornien - und gründeten Hollywood."
  15. Bayer, M.: Zweiter Sonnenaufgang im Internet : Die Registrierung für die neuen Netz-Adressen .info und .biz startet - "Sunrise-Period" soll Markenrechte sichern (2001) 0.01
    0.009064471 = product of:
      0.036257885 = sum of:
        0.036257885 = weight(_text_:und in 6946) [ClassicSimilarity], result of:
          0.036257885 = score(doc=6946,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32043862 = fieldWeight in 6946, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6946)
      0.25 = coord(1/4)
    
    Content
    "Wer zuerst kommt, den belohnt die einprägsame Adresse. So ist das bislang bei der Vergabe von Domains für das Netz der Netze - sehr zum Ärger manch' schwerfälliger Großunternehmen oder Organisationen. Bis diese dazu übergingen, sich selbst oder ihre Produkte im Internet zu präsentieren, waren Konkurrenten, windige Geschäftemacher oder schlicht Privatpersonen mit gleichem Namen oft schneller und hatten die werbeträchtige Heimat für sich reserviert. Dann müssen Schecks, zunehmend auch Rechtsabteilungen und Richter ran. Kleine Online-Initiativen haben dabei meist das Nachsehen. Nun kommt die zweite große Chance erstmals seit 15 Jahren. In wenigen Wochen gehen Adressen mit neuen internationalen Endungen ins Netz: Zu Dot-com, Dot-net und Co. gesellen sich bald Dot-biz und Dot-info - darunter werden Seiten einsortiert, auf denen es ums Geschäft geht beziehungsweise um allgemeine Informationsangebote. Weitere fünf Rubriken folgen, unter anderem Dot-name. Diese Endung ist für private Dinge vorgesehen. Die Internet-Verwaltung Icann hat dafür gesorgt, dass diesmal, zumindest in der Startphase, alles genau geregelt ist - zu Gunsten der Rechte-Inhaber. Schnelle Bestell-Clicks alleine garantieren nun nicht mehr begehrte Adressen in den geschaffenen Top Level Domains. - Round Robin mit Ausnahmen - Bei den .info-Adressen soll ein dreistufiges Verfahren juristischen Streit vermeiden. Schon jetzt sammeln Registrare weltweit Aufträge für solche Domains. Ob die Absender im Sommer tatsächlich die entsprechende Website online bringen dürfen, ist aber keineswegs sicher. Denn erst von Montag, 25. Juni, an werden die Bestell-Listen aus den fünf Kontinenten zusammengeführt - bei dem Konsortium Afilias. Dahinter stehen 19 Icann-Registraren, die im vergangenen Jahr weltweit mehr als zehn Millionen internationale Domains ins Netz gebracht haben. Rechte-Eigentümer bekommen dabei einen Vorsprung eingeräumt. In der 30 Tage währenden Sunrise-Period" registriert Afilias nur Begriffe, die nachweislich vor dem 2. Oktober 2000 als Marke geschützt waren.
    Die Anmelder müssen die Nummer ihrer Urkunde nennen und das Land, das den Titel eingetragen hat. Ist ein Begriff in mehreren Staaten eingetragen, entscheidet der Zufall- Für die Vergabe gilt das Round-Robin-Prinzip", erklärt Michael Frenzen, Sprecher der Montabaurer Internetfirma 1 & 1, die über ihre Tochter Schlund& Partner Mitglied des Konsortiums ist. Das heißt, ein Registrar nach dem anderen kann je eine Adresse in die zentrale Datenbank eingeben. Geregelt ist auch, wie sich die unterlegene Seite wehren darf- Sie kann bei der Weltorganisation für Geistiges Eigentum (Wipo) ein Challenge-Verfahren einleiten. Der Domain-Inhaber muss nachweisen, dass seine Angaben den Tatsachen entsprechen oder die Adresse der gegnerischen Seiten abtreten. Den Verlierer kostet der Streit 295 US-Dollar, also etwa 670 Mark. Für Privatpersonen wird es sechs Wochen später, vom 6. August an, spannend. Dann beginnt Afilias.info-Adressen zu vergeben, die nicht an Markennamen gekoppelt sind. Auch solche Aufträge werden seit Mai gesammelt. Bei 1 & 1 überschritt seil der Zähler gestern die 80000er-Schwelle, die Hälfte der Bestellungen ging nach Angaben des Unternehmens in denvergangenen 14 Tagen ein. Ganz ähnlich ist die Vergabe der bizAdressen geregelt. Dieser Namensraum ist Unternehmen vorbehalten. Noch bis zum 9. Juli können Firmen ihre Warenzeichen anmelden. Zeigtjemand anderes Interesse an eine so gekennzeichnete Domain, wird er automatisch auf die Rechtslage hingewiesen. Folgt dennoch eine Bestellung, wird der Rechte-Inhaber automatisch über den Vorgang informiert. Von Juli bis September werden die Adressen endgültig verteilt - und im Oktober aktiviert. - Dubiose Angebote - Icann und die Registrare haben diese Verfahren auch deshalb entwickelt, um dubiose Geschäfte von Leuten zu verhindern, die Adressen auf Verdacht bestellen, um sie später teuer zu verkaufen.
    Die mehrstufige Bestellung klingt komplizierter als sie ist. Dennoch versuchen manche Firmen, mit den neuen Top Level Domains ein Geschäft zu machen. So flattern derzeit fast täglich vermeintlich gut gemeinte Briefe in die Chefetagen: Als Konsequenz aus diesem äußerst ungewöhnlichen und komplizierten Verfahren" wird da beispielsweise interessierten Unternehmen dringend dazu geraten, sich bei der bizRegistrierung von einem Experten beraten und unterstützen zu lassen." Andere Schreiben enthalten professionell gemachte Formulare; wer sie ausfüllt und abschickt, zahlt für eine .info-Vorregistrierung 490 Euro zuzüglich Umsatzsteuer. Die Dienstleistung besteht dann darin, die Bestellung an einen Registrar weiterzuleiten, an den man sich auch direkt hätte wenden können. Und, wie bei allen Anbietern gilt auch hier: Eine Garantie für die Zuteilung der Adresse gibt es nicht das Geld aber ist aufjeden Fall weg. Als Richtschnur kann eine Vorgabe der Internet-Verwaltung Icann dienen: Adressen mit den neuen Top Level Domains sollten nicht viel teurer kommen als die für bestehende Rubriken. Abzuraten ist von Verträgen, die Gebühren selbst dann verlangen, wenn die angestrebte Adresse nicht mehr zu bekommen ist. Nach .info und .biz ist mit der AdressenErweiterung.name zu rechnen, die für Privatpersonen gedacht ist. Der zuständige Registrar, Global Name Registry, spricht von einer einmaligen und geschützten Identität für die gesamte elektronische Kommunikation" und kündigt einen "digitalen Speicher für die alltägliche Nutzung durch Familie, Freunde, Geschäftspartner und Service Provider" an. Die vier anderen geplanten Rubriken sind branchenbezogen: aero für Luftverkehrsuntemehmen, coop für genossenschaftliche Unternehmen und museum für diese Einrichtungen. Die Endung .pro für Professionells wird streng reglementiert und mit weiteren Kennungen unterteilt - etwa law.pro für Rechtsanwälte und med.pro für Ärzte."
  16. Alby, T.: Web 2.0 : Konzepte, Anwendungen, Technologien; [ajax, api, atom, blog, folksonomy, feeds, long tail, mashup, permalink, podcast, rich user experience, rss, social software, tagging] (2007) 0.01
    0.009064471 = product of:
      0.036257885 = sum of:
        0.036257885 = weight(_text_:und in 2273) [ClassicSimilarity], result of:
          0.036257885 = score(doc=2273,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32043862 = fieldWeight in 2273, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2273)
      0.25 = coord(1/4)
    
    Abstract
    Dem neuen Web mal auf die Finger geschaut -- Tom Alby hat sich bereits mit seinem Suchmaschinenoptimierung-Buch einen Namen gemacht und setzt dem Erfolg seines ersten Buches nun mit Web 2.0. Konzepte, Anwendungen, Technologien noch einen drauf. Wie schon bei der Optimierung für Suchmaschinen geht er auch bei seinem Blick auf das Phänomen Web 2.0 ganzheitlich und umfassend an die Arbeit: Ideen, Technik, Umsetzungen, Beispiele, Erfolge, Probleme, Ausblicke und Interviews mit den Machern. Ein Blitzlichtfoto im dunklen Web-Dschungel. Endlich geht es dem Web wieder gut. Alle freuen sich. Die Verlierer werden die Sieger sein. Jetzt wird alles anders. Das Blablabla in den Medien klingt ähnlich wie schon zu Zeiten des Web 1.0. Und doch ist es anders. Was sich geändert hat, zeigt sich jedoch meist erst auf den zweiten Blick -- Alby hat diese Einblicke zusammen getragen und zeigt den aktuellen Stand. Ohne Wortblasen, an Beispielen mit Hintergrund. Nach einem Blick auf die Historie von der New Economy zum Web 2.0 stürzt sich Alby auf das bekannteste Web 2.0-Beispiel: den Blog. Alsdann durchleuchtet er Podcasts, Social Software wie FlickR oder Skype, Folksonomy (wo bleibt das Geld), die Plattformrepräsentanten wie Google, die Technik im Hintergrund von AJAX bis Ruby, Business-Modelle und der Blick Richtung 3.0. Zuletzt dann Interviews mit den Vorreitern der Szene: von Johnny Haeusler bis Jörg Petermann. In Web 2.0. Konzepte, Anwendungen, Technologienkann man pieksen wie man will, es platzt nicht. Das fundierte Über- und Einblicksbuch ist jedem Journalisten, Manager, Trendforscher und Webaktivisten zu empfehlen, denn wer nicht weiß, was Alby weiß, sollte zum Thema Web 2.0 lieber schweigen.
    Classification
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.187 (W. Ratzek): "So ist das mit den Trends. Viele versuchen sich als Trendsetter - und scheitern. Andere suchen nur einen werbewirksamen Titel für eine Veranstaltung, wie das der Verleger Tim O'Reilly 2004 tat, und lösen damit einen Hype aus - wie das neudeutsch heißt. Aber so ganz zufällig war O'Reillys Wortschöpfung "Web 2.0" nicht. Nach dem Platzen der New-Economy-Blase sollten Fachleute auf einer Tagung diskutieren, wie es nun mit der Internetwirtschaft weiter gehen sollte. In nur kurzer Zeit entwickelte sich das "Web 2.0" zum Inbegriff einer neuen Bewegung, der nicht nur IT-Enthusiasten angehören. Denn das "join-in-Web" (das Mitmach-Web), wie das Web 2.0 auch bezeichnet wird, bietet auch IT-Ungeübten die Möglichkeit, im Netz-der-Netz mit eigenen Inhalten, also "user generated content", präsent zu sein. Den Schlüssel zum World Wide Web erhalten sie durch "Social Software". Selbstverständlich geht Tom Alby auch ausführlich auf die Schlüsselbegriffe ein, die sich um das Web 2.0 ranken. Dazu gehören die einer breiten Nutzerschicht bekannten Anwendungen wie Blogs, RSS oder Wikis, wie auch die weniger bekannte Technologien und Entwicklungskonzepte, wie Ajax (Asynchronous JavaScript and XML), Ruby/ Ruby on Rails. In zehn Kapiteln führt Tom Alby in Konzepte, Anwendungen und Geschäftsmodelle des Web 2.0 ein. Neben technischen Aspekten geht er auch auf die soziologischen und psychologischen Aspekte ein, wenn er beispielsweise fragt "Was motiviert die Benutzer, sich in Social SoftwarePlattformen einzubringen?" (S. 108) Die Antwort leuchtet ein: "Zunächst einmal ist da die Erwartung der Benutzer, etwas für das Gegebene zurückzubekommen: Wer sein Profil mit vielen Informationen bestückt, der hat auch eine Chance, dass das Profil von anderen angesehen und eventuell Kontakt aufgenommen wird. Wer bei Wikipedia sein Wissen einbringt, der weiß auf der anderen Seite, dass er von den Beiträgen anderer profitieren kann. Dies kann auch zu einem wirklichen Gemeinschaftsgefühl führen (...) Auch ein gewisser Stolz, Teil dieser Gemeinschaft zu sein, mag dazu gehören." (S. 108.f) Tom Albys "Web 2.0" zeichnet sich auch durch die vielen Anwendungsbeispielen aus. Ergänzt werden diese durch fünf Interviews mit Praktikern wie Johnny Haeusler von Spreeblick.de oder Vasco Sommer-Nunes und Florian Wilken von blog.de. Ein umfangreiches Glossar und ein umfangreiches Stichwortverzeichnis erleichtern die Handhabbarkeit. Getreu dem" Join-in-Web" gibt es auch ein Blog (http://web20_buch.alby.de/) zum Buch, um mit dem Autor in Kontakt zu treten. Ein weiteres Plus ist die leichte Lesbarkeit, die es auch dem Nicht-Informatiker ermöglicht, die technischen Zusammenhänge zu verstehen. Wer mehr über Folksonomy, Ruby on Rails, Ajax oder Long Tail wissen möchte, dem sei Tom Albys "Web 2.0" sehr empfohlen. Dem IT-Profi wird "Web 2.0" nicht sehr viel Neues bieten, aber für Agenturen, Designer, Webentwickler, Studierende, Bibliothekarlnnen bietet dieses engagiert geschriebene Buch viel Nützliches."
    RVK
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  17. Kaeser, E.: ¬Das postfaktische Zeitalter (2016) 0.01
    0.009064471 = product of:
      0.036257885 = sum of:
        0.036257885 = weight(_text_:und in 4080) [ClassicSimilarity], result of:
          0.036257885 = score(doc=4080,freq=38.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32043862 = fieldWeight in 4080, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4080)
      0.25 = coord(1/4)
    
    Abstract
    In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
    Content
    "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
    - Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
    - Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
    Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
    - Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
  18. Schillinger, T.; Winterschladen, S.: Was die Welt zusammenhält : Sieben Menschen schützen das Internet (2010) 0.01
    0.009004639 = product of:
      0.036018558 = sum of:
        0.036018558 = weight(_text_:und in 705) [ClassicSimilarity], result of:
          0.036018558 = score(doc=705,freq=54.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3183235 = fieldWeight in 705, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=705)
      0.25 = coord(1/4)
    
    Content
    "Die Geschichte klingt wie eine Verschwörungstheorie oder ein Endzeit-Thriller. Es geht um das Internet. Es geht um sieben Menschen. Es geht um sieben Schlüssel, mit denen die Hüter das World Wide Web retten können. Der Plot geht so: Im Falle eines Cyberangriffs kommen die Bewahrer an einem geheimen Ort in den USA zusammen, um dort das Internet neu zu starten. So fiktiv es sich anhört: Seit vergangener Woche, mit Einführung des Online-Sicherheitssystems DNSSEC (Domain Name System Security), gibt es dieses geheimnisvolle Team tatsächlich. Das Internet ist ein verführerisches Ziel für Attacken. Mehr als zwei Drittel aller Deutschen sind online, weltweit jeder Fünfte. Online-Banking, Internetauktionen, soziale Netzwerke wie Facebook und Twitter - ein großer Teil unseres Lebens spielt sich in der virtuellen Welt ab. "Wenn das Internet weltweit lahm gelegt ist, ist die Welt lahm gelegt", sagt Isabell Unseld vom Anti-Viren-Spezialisten McAfee. Kaum vorstellbar, wenn Kriminelle diese Schwäche ausnutzen könnten. An diesem Punkt der Geschichte kommen die sieben Herrscher über das Internet wieder ins Spiel. Sie leben in Tschechien, Kanada, China, Trinidad Tobago, Burkina Faso, USA und Großbritannien. Einer von ihnen hat sich jetzt verraten. Paul Kane, ein Engländer, hat erzählt, dass er seinen Schlüssel in einer bombensicheren Tasche in einem Tresor aufbewahre.
    Mit der Einführung des Online-Sicherheitssystems DNSSEC am 15. Juli, soll gewährleistet werden, dass sich bei der Eingabe einer Adresse tatsächlich nur der angesteuerte Server meldet. Jeder Server erhält einen digitalen Ausweis. Die Namen werden auf 13 Servern auf der Welt verwaltet. Was das alles mit den sieben Schlüsselträgern zu tun hat? Sie kämen zum Einsatz, wenn der Masterschlüssel, der die Namen codiert, geknackt wird. Durch das Zusammenführen ihrer Schlüssel können sie einen neuen Mastercode erzeugen. Gegen eine physische Zerstörung kann aber auch der Geheimbund nichts tun. Sollten die wichtigsten Server zerstört oder Tiefseekabel gekappt werden, wären sie machtlos. Dass es Terroristen aber gelingt alle wichtigen Server und Kabel auf einmal auszuschalten, ist sehr unwahrscheinlich."
    "Gefährlicher Alltag Sicherheit und Überlegenheit in Forschung, Wirtschaft und Militär waren Antriebe für die Entwicklung des Internets und sie sind zugleich auch eine Gefahr für die Online-Nutzer. Seit in fast allen Büros in den Industrie- und Schwellenländern Computer mit Internetanschluss stehen, spähen Datendiebe im Auftrag von Staaten und Firmen Forschungsinformationen oder Regierungspläne aus. Cyberwar ist kein Kino mehr, es ist Alltag. Das Bundesamt für Sicherheit und Informationstechnik und der Verfassungsschutz warnen regelmäßig vor Angriffen auf die Computer der Bundesbehörden. Vornehmlich handelt es sich um Versuche, sensible Berichte zu erhalten. Forschungsinstitute und forschende Unternehmen sind ebenso Ziel von Spionageangriffen aus dem Netz. Aufgrund der Sensibilität des Internets ernannte beispielsweise US-Präsident Barack Obama Cybersicherheit zu einer der wichtigsten Aufgabe innerhalb der Landesverteidigung. Dieses Vorgehen dürfte nicht zuletzt auch aus der Erfahrung der USA selbst resultieren, die im Kosovo-Krieg auch Cyber-Waffen eingesetzt haben sollen: Manipulation von Luftabwehr und Telefonnetzen sowie von Bankkonten."
    "Welt-weite-Wirtschaft Innovativ und erfolgreich sein, bedeutet schnell sein - und nichts hat Wirtschaft und Forschung in den vergangenen Jahren so extrem beschleunigt wie das Internet. Ingenieure in Indien und den USA arbeiten mittels virtueller Produktmodelle gemeinsam an der Entwicklung eines neuen Autos, Manager beraten sich per Videokonferenz, Forscher tauschen Datensätze per Mausklick aus. Nicht nur die großen Konzerne haben die Vorteile einer vernetzten Welt erkannt. Laut einer Studie des Netzwerks Elektronischer Geschäftsverkehr nutzten 2008 in Deutschland rund 71 Prozent der kleinen und mittleren Unternehmen das Internet zur Kundenbetreuung und sogar 90 Prozent zum Datenaustausch. Arbeitsabläufe verändern sich und schaffen neue Beschäftigungsfelder für Webdesigner, Software-Entwickler oder Programmierer. Ganze Wirtschaftszweige wandern ins Netz, der Online-Handel blüht. 2009 etwa betrug der Anteil des Internethandels am Gesamt-Versandhandel erstmals über 50 Prozent - die Deutschen gaben mit 15,4 Milliarden Euro rund 15 Prozent mehr im Internet aus als noch ein Jahr zuvor, zeigt eine Studie von TNS Infratest. Alleine der weltweite Marktführer Amazon setzte 2009 rund 25 Milliarden Dollar um."
    "Am Anfang war der Schock Ohne Satelliten gäbe es womöglich gar kein Internet. Denn als Antwort auf den Sputnik-Schock gründet die US-Regierung 1957 ihre neues Forschungszentrum Arpa (Advanced Research Projects Agency). Nachdem die Wissenschaftler in 18 Monaten den ersten US-Satelliten gebaut haben, entwicklen sie Computernetzwerke. Die Dezentralität ist ihnen besonders wichtig. Die verschickten Informationen werden in Pakete zerteilt und über verschiedene Wege zum Empfänger geschickt. Fällt unterwegs ein Knoten aus, etwa im Krieg, suchen sich die Teile der Botschaft den unbeschädigten Weg. Die Kommunikation ist so kaum zu unterbinden. Das Arpanet gilt als die Geburtsstunde des Internet. Die Universität Los Angeles (UCLA) verbindet sich 1969 mit dem Rechner von Stanford. Als erste Botschaft ist das Wort "login" verabredet. Doch nach dem L und dem O ist Schluss. Die Verbindung ist zusammengebrochen, die Revolution hat begonnen. Über das rasant wachsende Netz tauschen sich Forscher aus. Damals lässt sich das Netz aber nur von Profis nutzen. Erst mit der Entwicklung des World Wide Web am Kernforschungszentrum Cern bekommt das Netz Anfang der 90er Jahre das Gesicht, das wir heute kennen."
    "Meeres-Browsen Satellit hin, Satellit her: Die Datenströme dieser Welt laufen nach wie vor durchs gute alte Tiefseekabel. Allein die Glasfaserkabel, die auf den Meeresböden liegen, summieren sich auf eine Gesamtlänge von rund 850 000 Kilometer. 95 Prozent des grenzüberschreitenden Datenverkehrs werden über die Verbindungen unter der Wasseroberfläche abgewickelt. Die Entscheidung fürs Kabel und gegen den Satellit hat drei Gründe: Der Kabelweg ist billiger, weniger störanfällig und kann weit größere Datenmengen bewältigen. Google hat die Verlegung des 9600 Kilometer Unity-Kabels mitfinanziert, das seit April Japan mit der Westküste der USA verbindet. Es hat 230 Millionen Euro gekostet und kann 4,8 Terabits (oder umgerechnet den Inhalt von 8000 CDs) pro Sekunde transportieren. Angeblich nutzt Google 20 Prozent der Datenkapazität des Kabels. 70 Prozent der Schäden an Tiefseekabeln werden von Fischernetzen und Ankern verursacht. Das erste transatlantische Kabel wurde 1858 zwischen Irland und Neufundland verlegt und diente der Telegrafie."
  19. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.01
    0.008984607 = product of:
      0.035938427 = sum of:
        0.035938427 = weight(_text_:und in 4198) [ClassicSimilarity], result of:
          0.035938427 = score(doc=4198,freq=84.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.31761533 = fieldWeight in 4198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4198)
      0.25 = coord(1/4)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
    Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  20. Wannags, M.-M.; Schäfers, S.: 7. InetBib-Tagung : 12. bis 14. November 2003 in Frankfurt am Main (2004) 0.01
    0.008877004 = product of:
      0.035508014 = sum of:
        0.035508014 = weight(_text_:und in 3113) [ClassicSimilarity], result of:
          0.035508014 = score(doc=3113,freq=82.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.31381142 = fieldWeight in 3113, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3113)
      0.25 = coord(1/4)
    
    Content
    "Trends und Perspektiven bildeten die Eckpunkte des Vortragsrahmens dieser dreitägigen Tagung in den Räumen Der Deutschen Bibliothek. Veranstaltet wurde die 7. InetBib-Tagung von der Universitätsbibliothek Dortmund diesmal in Kooperation mit Der Deutschen Bibliothek, dem Deutschen Institut für Internationale Pädagogische Forschung (dipf) und der Stadt- und Universitätsbibliothek Frankfurt. Mit 309 Anmeldungen, 19 Vorträgen, 4 Workshops und 21 Ausstellern haben die Organisatoren ein beeindruckendes Programm zusammengestellt, in dessen Vorbereitung allein der Administrator der Inetbib-Liste Michael Schaarwächter 609 Emails austauschte. Die modernen Räume Der Deutschen Bibliothek und das unermüdliche Engagement der Organistoren haben der Tagung eine besondere Note gegeben. Aufgrund der Vielzahl der Vorträge werden hier nur einige referiert. Das Programm sowie die Abstracts und die Volltexte der Präsentationen sind auf der Homepage der Tagung verfügbar. Für den Eröffnungsvortrag konnte der Vorsitzende des Fraunhofer-Instituts für Graphische Datenverarbeitung Prof. José L. Encarnacao gewonnen werden. Mit Video-Präsentationen stellte er laufende Projekte seines Instituts vor, die in wenigen Jahren Produktionsreife erlangen, und das Arbeiten mit Computern erleichtern und effizienter gestalten werden. Er skizzierte dabei eine Zukunft, in der der Mensch von intelligenten technischen Gegenständen des Alltags umgeben ist, die miteinander kommunizieren und die Absichten des Benutzers aus dem Kontext heraus erkennen sowie Aktivitäten antizipieren. Die Vision sei der im Mittelpunkt stehende Mensch, der sich der Technik bediene, statt sich ihr anzupassen.
    Im Zentrum der Tagung standen die Präsentationen des Entwicklungsstands zahlreicher Projekte, die sich mit der Thematik des freien Zugriffs auf elektronische Dokumente und Dokumentenserver beschäftigen: Dr. Bruno Klotz-Berendes präsentierte einen umfangreichen Workshop zur 2000 gegründeten Open Archives Initiative (OAI). Die OAI sei weltweit tätig, mit dem Ziel wissenschaftliche Archive zu konsolidieren. Dass auch OCLC seine Metadaten über OAI zugänglich mache, unterstreiche die Bedeutung der Initiative. Mit OAI-PMH v. 2.0 lege ein "low barrier"-Protokoll für den Metadatenaustausch zwischen Daten- und Service-Providern vor. Es sei kein Endbenutzersuchprotokoll, wie Z39.50, sondern unterstütze als Einsammel(Harvesting)-Prozess den Datenfluss zwischen Servern. Wobei die Lieferung einzelner Datenprovider (Open Archives oder Repositories) durch Aggregatoren, wie z.B. Bibliotheksverbünde zusammengefasst werden könne. Zwischen Daten- und Service-Providern sollten Absprachen zur Kennzeichnung von Sets getroffen werden, damit der Service-Provider (Subject Gateways, Suchmaschinen, Mehrwertdienste) die für seinen Dienst geeigneten Objekte abholen könne. Über das EPICUR-Projekt der Deutschen Bibliothek berichtete Kathrin Schnöder. Ziel sei ein standardisierter, zitierfähiger Identifier (URN), der mittelfristig die URL ersetze. Dieses könne, auch in Hinblick auf die Langzeitverfügbarkeit, nur im Rahmen einer institutionalisierten Infrastruktur gewährleistet werden. Dr. Peter Schirmbachen stellte das "Das DINI-Zertifikat für Dokumenten- und Publikationsserver" vor, das, von der Arbeitsgruppe "Elektronisches Publizieren" der Deutschen Initiative für Netzwerkinformation (DINI) herausgegeben wurde. Dies soll ab 1.1.2004 die Unsicherheit beenden, welche Punkte beim Betrieb eines Dokumentenservers zu beachten sind. Das Zertifikat führe einen Qualitätsstandard ein, indem es Mindestkriterien und Empfehlungen festlege für: Leitlinien (Policy), Autorenbetreuung, rechtliche Aspekte, Authentizität und Integrität, Erschließung, Zugriffsstatistik und Langzeitverfügbarkeit.
    In seinem Beitrag über "Rechtsstreitigkeiten bei der Dokumentlieferung" berichtete Ulrich Korwitz über die aktuellen rechtlichen Probleme denen Bibliotheken ausgesetzt sind, die ihre Informationen und Dokumente elektronisch zugänglich machen. Dabei stehe vor allem der Lieferdienst subito unter massivem Druck einiger großer internationaler Verlage, die ihre kommerziellen Interessen durch diesen Dienst beeinträchtigt sehen. Vor diesem Hintergrund seien die Initiativen zu sehen, die alternative Publikationsstrukturen in Form eines "Open Access" aufbauten, so z. B. "German Medical Science" (GMS), "German Academic Publishers" (GAP) oder "Digital Peer Publishing" (DIPP) in NRW. Es müsse erreicht werden, dass das Urheberrecht beim Autor verbleibe, und dieser sich nicht mehr exklusiv an kommerzielle Verlage bindet. "Science belongs to science. Copyright belongs to the author". In diesem Sinne sei auch die gerade veröffentlichte "Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen` zu verstehen. Den "Aufbau einer Koordinierungsstelle für elektronische Hochschulschriften" an Der Deutschen Bibliothek beschrieb Dr. Thomas Wollschläger. Es gäbe noch eine erhebliche Zahl von Hochschulen, an denen bestimmte Fachbereiche die Möglichkeit zur Online-Veröffentlichung nicht unterstützen und Promovenden nicht über diese Möglichkeit informierten. "Wie viele Verlage brauchen deutsche Universitäten und welche Verbundmodelle sind für diese geeignet?" fragte Dr. Claudia Koltzenburg in ihrer Präsentation des Verbundprojektes GAP - German Academic Publishers -, dessen Ziel der Aufbau eines kooperativen offenen Verbundes für elektronisches Publizieren im Wissenschaftsbereich unter Beteiligung deutscher Universitätsverlage ist. Nicht der Leser, sondern die Institution solle für den freien Zugang zu wissenschaftlicher Publikation zahlen. Neunzig Prozent dessen, was Wissenschaft hervorbringe sei nicht sedimentiert, sondern "im Fluss", ein "give away". Es müsse stärker vermittelt werden, welches Interesse die Universität und die Wissenschaftler an diesen Publikationen habe: Kooperation vs. corporate identity. Angestrebt werde nicht ein zentraler deutscher Universitätsverlag, sondern in Zusammenarbeit mit Wissenschaftlern, den Fachgesellschaften und weiteren Partnern ein Geschäfts- und Organisationsmodell für die künftige kooperative Gestaltung akademischer Publikationsformen zu entwickeln, das eine echte Alternative zu den marktbeherrschenden Großverlagen biete. Als erfolgreiches Gemeinschaftsunternehmen wissenschaftlicher Bibliotheken präsentierten Christine Burblies und Dr. Tamara Pianos das interdisziplinäre Internetportal für wissenschaftliche Information vascoda. Mittlerweile kooperieren über 30 Einrichtungen in diesem bundesweiten Projekt. Durch die Einbindung der Elektronischen Zeitschriftenbibliothek EZB und erweiterten Funktionalitäten im nächsten Release der Metasuchmaschine werde der Ausbau kontinuierlich vorangetrieben. Als "Chefsache" kennzeichnete Prof. Wilfried Juling die "Integration von Information, Kommunikation und Multimedia". Neue Medien und eine leistungsstarke elektronische Infrastruktur seien die Basis der eUniversity, der "enhanced university". Für eine erfolgreiche Umsetzung bedürfe es einer institutionalisierten Kooperation zwischen Rechenzentrum, Bibliothek, Medienzentrum, Verwaltung und Fakultäten. Diese Aufgabe sollte idealerweise ein CIO (Chief Information Officer) übernehmen, der aus dem operativen Geschäft herausgelöst sei und an der Seite des Rektors die konzeptionelle und administrative Aufsicht über alle technischen, organisatorischen und nutzungsrechtlichen Aspekte des Informationsversorgungsbereiches innehabe.
    Ein weiterer Schwerpunkt befasste sich mit Nutzungsanalysen und ihre Konsequenzen: Dr. Beate Trögers Beitrag zu Nutzungsanalysen im Blick auf fachliche und interdisziplinäre Webportale bezog sich auf die Ergebnisse einer schriftlichen Nutzerbefragung, Fokusgruppeninterviews und der Auswertung der Logfiles des Deutschen Bildungsservers. Allgemein halten Praktiker die angebotenen fachspezifischen Inhalte für zu kompliziert, während Wissenschaftler sie als zu wenig relevant einstufen. Aus diesem Grund arbeiten beide Gruppen vorzugsweise mit Google statt mit Themenportalen. Bei den Angeboten eines Webportals werden an erster Stelle Volltexte verlangt, danach folgen Abstracts, Referenzen und zuletzt Fakteninformationen. Wichtig erachtet werden Informationen zu Institutionen und Forschern, forschungsrelevante Quellen und Kongressinformationen. Das von Bernd Dugall dargestellte Ergebnis einer Studie zur Nutzung elektronischer Zeitschriften zeigte, dass nur 5% aller elektronischen Zeitschriften eines Portfolios ca. 45% der Nutzung ausmachten und 50% der Zeitschriften schließlich 95% der Nachfrage abdeckten. Diese Erfahrung wurde von dem nachfolgenden Vortragenden Prof. Andreas Geyer-Schulz, als ein typisches Dilemma des Sortimentshandels gekennzeichnet. Man könne zwar das Angebot an wenig genutzten Produkten zurückfahren, würde sich dann aber vom Gesamtversorger zum Spezialisten entwickeln. Ausgehend von der zunächst ungewöhnlich anmutenden Annahme, eine Bibliothek sei wie ein Supermarkt anzusehen und mit in der BWL üblichen Konsumentenverhaltensmodellen zu analysieren, beschrieb Prof. Geyer-Schulz einen auf der Analyse von Warenkörben basierenden Recommenderdienst, der dem Leser bei der Bestellung eines Buches weitere zur Ansicht empfehlen kann, vergleichbar den Empfehlungslisten des Direktvertreibers Amazon. "Büchersuche für Dummies" titulierte Dr. Florian Seiffert seinen Ansatz, den im HBZ nachgewiesenen Literaturbestand auch dem Google-Nutzer nahe zu bringen. Den bereits in der Inetbib-Mailingliste kontrovers diskutierten Ansatz verteidigte er mit ausführlichen Logfile-Analysen, dessen Resultate, "14% der Zugriffe auf das virtuelle Bücherregal seien relevant", er dem Plenum mit auf dem Weg gab. Aus dem Plenum stellten sich nach diesem und auch anderen Vorträgen konkrete Fragen nach den bei den Untersuchungen zugrunde liegenden LogfileAnalyse-Instrumenten. Ein Hinweis an die Veranstalter, diesem Thema künftig mal wieder einen Workshop zu widmen. Denn gerade die Workshops der Inetbib-Tagungen bieten mit ihrer umfassenden Präsentation eines Themas eine ideale Möglichkeit für Einstieg aber auch Weiterbildung zu aktuellen und praktischen Fragen. ".. Die Inetbib-Tagung ist immer eine umfassende Fortbildung" - Mit diesen Worten beendete Frau Dr. Beate Tröger (DIPF) den letzten Vortragsblock dieser Tagung, nachdem Dr. Volker-Henning Winterer einen mitreißenden Vortrag über ein aktuelles interdisziplinäres Forschungsgebiet, den skalenfreien Netzwerken (small world phenomenon) gehalten hatte. Recht hat sie."

Years

Languages

  • d 1328
  • e 78
  • m 14
  • More… Less…

Types

  • a 1117
  • m 204
  • s 59
  • el 55
  • x 32
  • r 5
  • i 4
  • h 2
  • ? 1
  • b 1
  • l 1
  • More… Less…

Subjects

Classifications