-
Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003)
0.01
0.007672068 = product of:
0.030688273 = sum of:
0.030688273 = weight(_text_:und in 2688) [ClassicSimilarity], result of:
0.030688273 = score(doc=2688,freq=20.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2712157 = fieldWeight in 2688, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2688)
0.25 = coord(1/4)
- Abstract
- Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
-
Müller, T.: Wort-Schnüffler : Kochrezepte kostenlos: in den USA erlaubt Amazon online das Recherchieren in Büchern (2004)
0.01
0.007672068 = product of:
0.030688273 = sum of:
0.030688273 = weight(_text_:und in 5826) [ClassicSimilarity], result of:
0.030688273 = score(doc=5826,freq=20.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2712157 = fieldWeight in 5826, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5826)
0.25 = coord(1/4)
- Content
- "Hobbyköche sind begeistert, Teenager, die sonst nur am Computerbildschirm kleben, interessieren sich plötzlich für Bücher, und Autoren werden nervös: Mit einer neuartigen Internet-Suchmaschine sorgt der Onlinebuchhändler Amazon.com in den USA für Furore und mischt den umkämpften Markt der "Search Engines" auf. Die im Oktober eingeführte Suchmaschine "Search Inside the Bock" ("Suche innerhalb des Buches!", englische Informationen unter http://www.amazon.com/exec/ obidos/tg/browse/-/10197041/002-3913532 0581613) stößt in eine neue Dimension vor. Während die meisten Suchmaschinen bisher bei einem gesuchten Titel Halt machten, blättert Amazons Suchmaschine das Buch förmlich auf und erlaubt das digitale Durchforsten ganzer Werke - zumindest von denen, die von Amazon eingescannt wurden - und das sind immerhin schon 120 000 Bücher mit 33 Millionen Seiten. Ist als Suchbegriff etwa" Oliver Twist", eingegeben, tauchen die Seiten auf, auf denen der Held des Romans von Charles Dickens erscheint. Von diesen Seiten aus können mit einem Passwort registrierte Kunden dann sogar weiter blättern und so bis zu 20 Prozent eines Buchs am Bildschirm durchschmökern. Ein neuer Kaufanreiz? Ob und wann die Suchmaschine auf dem deutschen Markt eingeführt wird, lässt Amazon offen. "Darüber spekulieren wir nicht", sagte eine Sprecherin des Unternehmens in Seattle. Amazon erhofft sich von dem neuen Service vor allem einen Kaufanreiz. Erste Zahlen scheinen dem Unternehmen von Jeff Bezos Recht zu geben. Bücher, die von der Suchmaschine erfasst wurden, verkauften sich zumindest in den ersten Tagen nach der Markteinführung deutlich besser als die anderen Werke. Bisher hat Amazon Verträge mit 190 Verlagen getroffen und deren Werke elektronisch abrufbar gemacht. Nur wenige Unternehmen sperrten sich aus Sorge vor Verkaufseinbußen oder einer möglichen Verletzung von Urheberrechten gegen das Einscannen ihrer Bücher. 15 Autoren forderten den Online-Riesen allerdings auf, ihre Bücher von der Suchmaschine auszunehmen. Besondere Sorge bereitet Amazons Erfindung einigen Sachbuchverlagen. So nutzen in den USA unter anderem Hobbyköche die neue Suchmaschine mit Begeisterung. Denn sie können den oft teuren Kochbüchern ihre Lieblingsrezepte entnehmen und dann auf den Kauf verzichten. "Kochbücher werden oft für ein bestimmtes Rezept gekauft", erklärte Nach Waxman, der Besitzer eines Kochbuchladens in New York der "Washington Post". Wenn sie das Rezept aber schon haben, dann könnten sie leicht sagen, "ich habe alles, was ich brauche", stellt Waxman besorgt fest. Auch für Lexika und andere teure Sachbücher, die etwa von Schülern oder College-Studenten für ihre Arbeiten durchsucht werden, könnte dies zutreffen.
Inzwischen hat der Buchversender einige Vorkehrungen getroffen. Unter anderem wurde eine elektronische Sperre errichtet, so dass die Seiten inzwischen nur noch von geübten Computernutzern kopiert oder ausdruckt werden können. Mit "Search Inside the Bock" hat der OnlineRiese seinen ersten Schritt in den heiß umkämpften Markt der Suchmaschinen unternom- men. Schon plant Amazön nach amerikanischen Medienberichten eine weitere Suchmaschine, um Kunden das elektronische Einkaufen zu erleichtern.. Die unter den Codenamen A9 bekannte Suchmaschine soll unter anderem die Preise von Produkten vergleichen und das günstigste Angebot ermitteln. Damit stößt Amazön in einen Markt vor, der bisher in den USA von dem Onlineportal Yahoo oder der Super-Suchmaschine Google beherrscht wurde. Google hat bereits zum Gegenangriff angesetzt. Nach Informationen des Fachmagazins "Publishers Weekly". verhandelt das Unternehmen bereits mit Verlagen, um ebenfalls in die neue Dimension der Buchinhalte vorzudringen."
-
Beuth, P.; Funk, V.: ¬Ein Artikel, der nie fertig wird : Der Einfluss von Twitter auf den Journalismus hat sich gewandelt - und soll es wieder tun (2009)
0.01
0.007672068 = product of:
0.030688273 = sum of:
0.030688273 = weight(_text_:und in 188) [ClassicSimilarity], result of:
0.030688273 = score(doc=188,freq=20.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2712157 = fieldWeight in 188, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=188)
0.25 = coord(1/4)
- Content
- "Das Flugzeug auf dem Hudson-River, die Anschläge in Bombay, die Proteste in Iran: Jedesmal, wenn die Öffentlichkeit bedeutende Ereignisse zuerst über Twitter erfährt, entfacht sich eine neue Debatte um die Glaubwürdigkeit der Quellen. Schließlich schreiben meist keine professionellen Journalisten, was sie beobachteten. Sie wägen nicht ab, sie überprüfen nicht, sie gleichen die Informationen nicht ab. Doch auch wenn unter den Twitternutzern viele sind, die unkritisch alles weiterleiten, was sie für interessant halten, so gibt es mindestens ebenso viele, die ein gesundes Misstrauen mitbringen. Glaubwürdigkeit und Vertrauen in die 140-Zeichen-Neuigkeit äußern sich deshalb anders. Wer viele Follower, also Abonennten bei Twitter hat, gilt als vertrauenswürdiger als ein unbekannter Twitterer. Wer enge Freunde in seinem Netzwerk hat, vertraut deren Informationsauswahl oft sogar mehr als der Auswahl, die klassische Medien treffen. Das jedenfalls schreiben die Harvard-Professor Urs Gasser und John Palfrey in ihrem Buch "Generation Internet". Und wer seine Behauptungen mit Links untermauern kann, wird eher ernst genommen als jemand, der ohne Quellenangaben loszwitschert. Der Journalist als Moderator - Ähnlich wie bei Wikipedia gibt es zudem eine Kontrolle durch die Masse: Weil die Kurznachricht auf Twitter meist von vielen Nutzern gelesen wird, sind diese zugleich in der Lage, sofort auf eine falsche Nachricht zu reagieren. So verbreiteten am Mittwoch mehrere Twitterer die Nachricht, der Sänger Kanye West sei bei einem Unfall ums Leben gekommen. Dessen Freundin war es schließlich, die bei Twitter klarstellte, dass es sich um einen schlechten Scherz handelte - was dann wiederum so schnell weitergeleitet wurde, dass eine Twittersuche nach Kanye West als erstes Meldungen über die Falschmeldung ergab.
Spannend für Medienmacher ist an Twitter, dass seine Nutzer oft über Themen schreiben, die den Medien sonst entgehen würden. So wie die einst belächelten Blogs längst zu einer wichtigen Quelle geworden sind, entwickelt sich auch Twitter langsam zu einer Hilfe bei der Suche nach Themen und Protagonisten. Dass nun auch Suchmaschinen wie Bing Twitter durchsuchen, werde aktuelle Nachrichtenströme deutlich beschleunigen, sagt Professor Christoph Neuberger, der am Institut für Kommunikationswissenhaft der Uni Münster den Einfluss des Internet auf den Journalismus untersucht. Dank Echtzeitsuche sei es zwar möglich zu sehen, welches Thema die Netz-Community beschäftig. "Es wäre aber fatal, wenn Journalisten allein daraus Trends für Themen ableiten." Schließlich twittern in Deutschland nur einige Zehntausend Menschen, die nicht repräsentativ für die Bevölkerung oder auch nur die Stammleserschaft einer Zeitung sein können. Der Forscher sieht in dem Dienst aber auch noch ganz andere Chancen: Journalisten müssten im digitalen Zeitalter stärker die Rolle der Moderatoren einnehmen, sagt er. "Ein Artikel ist nicht mit dem letzten Punkt fertig. Die Geschichte entwickelt sich weiter, wenn Journalisten darüber mit Lesern diskutieren, Ideen aufnehmen oder Belege im Netz suchen." Zeitmangel größtes Hindernis - Das kann über Twitter sehr gut funktionieren: Wird ein Artikel eifrig kommentiert und per Link weitergereicht, kann sich der Autor in die Diskussion einschalten und die Reaktionen einarbeiten - etwa wenn Nutzer einen Fehler entdeckt haben oder weitere Informationen und Links anbieten. Dafür müssten sich die Journalisten aber erstens vom Sockel der Allwissenheit bewegen und akzeptieren, dass es immer jemanden gibt, der mehr über ein Thema weiß als sie selbst. Und zweitens müssen sie die Zeit haben, einen Artikel notfalls mehrfach zu aktualisieren."
-
Majica, M.: Wenn der Kühlschrank online geht : Zugang zum Netz (2012)
0.01
0.007672068 = product of:
0.030688273 = sum of:
0.030688273 = weight(_text_:und in 1225) [ClassicSimilarity], result of:
0.030688273 = score(doc=1225,freq=20.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2712157 = fieldWeight in 1225, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1225)
0.25 = coord(1/4)
- Content
- "Was macht eigentlich Nabaztag? Eine Google-Suche lässt schnell erahnen, dass es dem Hasen mit den putzigen Ohren nicht gut geht. Es war im Jahr 2007 , da tourte der Franzose Rafi Haladjian durch die Welt, um die Menschheit davon zu überzeugen, dass ihr ein internetfähiger Hase gefehlt hat. Genauer: das Plastiktierchen Nabaztag, das sich ansprechen ließ und den Wetterbericht und E-Mails vorlesen konnte. "Wenn man Hasen vernetzt, ist das ein ironischer Weg zu zeigen, dass man alles vernetzen kann", sagte Haladjian damals. Seine Firma Violet meldete 2009 Insolvenz an. So absurd die Idee mit dem internetfähigen und vernetzten Hasen klingen mag - der Franzose ist mitnichten der Einzige, der in diese Richtung denkt. Unter dem Slogan "Internet der Dinge" tauchen immer wieder Ideen auf, mehr als den bisher üblichen Geräten Zugang zum Netz zu verschaffen. Da nun fast endlos viele IP-Adressen für wirklich jedes Gerät zur Verfügung stehen, rückt das wieder in den Blick. Vor allem im Haushalt fallen Designern immer wieder Gegenstände auf, bei denen eine Internetverbindung sinnvoll erscheint: etwa ein digitaler Bilderrahmen, der selbstständig Fotos aus Online-Fotodiensten herunterlädt. Noch genug Milch im Haus? Oder ein Familienkalender, auf den Vater, Mutter, Kinder und die Großeltern Zugriff von ihren Handys und Bürorechnern haben, so- dass abends beim Essen dann alle die eingetragenen Termine vor Augen haben. Fast zu einer Art Treppenwitz der Branche hat es der internetfähige Kühlschrank gebracht, der autonom etwa den Milch-Füllstand registriert und bei Bedarf über die Webseite des bevorzugten Einzelhändlers nachbestellt. "Das ist so eine Idee, wo sich viele Menschen sagen: Kühlschrank aufmachen, reingucken und notieren, was ich brauche - das kriege ich auch ohne Internet noch hin", sagt Ralf Sauerzapf. Er ist Sprecher bei der Telekom, also jenem Unternehmen, das vor sieben Jahren in Berlin auch schon einmal ein intelligentes Haus präsentiert hat - natürlich inklusive vernetztem Kühlschrank und per Smartphone einschaltbarer Waschmaschine. Trotzdem könnte das "Internet der Dinge" nun wieder interessant werden, glaubt Sauerzapf. Wenn durch die Vielzahl der verfügbaren neuen IP-Adressen theoretisch jedes Objekt vernetzt werden könne, seien beispielsweise intelligente Stromzähler denkbar. Deren "Schlauheit" könnte sich gleich in zwei Richtungen bemerkbar machen: Zum einen könnte beispielsweise der Stromverbrauch über das Internet so gesteuert werden, dass etwa die Spülmaschine dann eingeschaltet wird, wenn der Strom auf dem Markt am billigsten ist. Software erledigt Hasen-Job Zum anderen könnten die Energieerzeuger sehr genau den Verbrauch taxieren, aber auch die zahlreichen Einspeisungen. So wäre leichter zu koordinieren, wie viel Strom überhaupt zu welcher Zeit hergestellt werden muss. Solche Lösungen sind natürlich nicht so charmant wie ein Internet-Hase. Aber Mails und Wettervorhersagen liest mittlerweile Software wie Apples Siri vor. Die funktioniert gut - aber ein Paar langer Ohren stünden ihr auch nicht schlecht. Und wären auch eine Reminiszenz an Nabaztag."
-
Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003)
0.01
0.007553726 = product of:
0.030214904 = sum of:
0.030214904 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.030214904 = score(doc=2418,freq=38.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.26703218 = fieldWeight in 2418, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.25 = coord(1/4)
- Abstract
- Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
- Content
- "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
-
Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001)
0.01
0.00749786 = product of:
0.02999144 = sum of:
0.02999144 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
0.02999144 = score(doc=6783,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.26505727 = fieldWeight in 6783, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.25 = coord(1/4)
- Abstract
- Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
-
Rötzer, F.: Internet ist überlebensnotwendig (2001)
0.01
0.00749786 = product of:
0.02999144 = sum of:
0.02999144 = weight(_text_:und in 481) [ClassicSimilarity], result of:
0.02999144 = score(doc=481,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.26505727 = fieldWeight in 481, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=481)
0.25 = coord(1/4)
- Content
- "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
Dafür erledigen jedenfalls angeblich 6,6 Millionen (66 Prozent) dieser sonst oft so gar nicht aufs Lernen erpichten Altersgruppe mit der Hilfe des Internet ihre Hausaufgaben oder bereiten sich auf den Unterricht vor, wobei die Mädceen etwas eifriger zu sein scheinen, Aber natürlich wird auch herumgesurft (71 Prozent), gespielt oder Spiele heruntergeladen (50 Prozent), Musik gehört oder heruntergeladen (37 Prozent). Ganz wichtig ist auch Kommunikation, also Emails (60%), Chatten (36%) oder SMS (47%) verschicken, während das "Ansehen von Finnen" (7 Prozent) etwas kurz gerät. Ob man das als Multitasking auslegen will oder nicht, so scheinen die Kinder und Jugendlichen während der Internetnutzung nicht nur Musik zu hören oder mit Freunden zusammen zu sein, sondern auch zu fernsehen, zu telefonieren, zu essen und zu trinken, zu lesen oder Hausaufgaben zu machen. Manche dieser Kombinationen ist denn schon erstaunlich. Ob die 71 Prozent, bei denen angegeben wurde, sie würden zusammen mit Freunden online gehen, dies auch immer so machen, darf doch bezweifelt werden. AOL sieht das jedoch lieber so: "Entgegen weitverbreiteter Vorurteile verzichten sie auch nicht auf die Gesellschaft anderer: 71 Prozent der Kinder und Jugendlichen surfen gemeinsam mit Freunden oder nutzen das Medium zu Kontaktaufbau und -pflege." Mit der Intemetnutzung reduziert sich auch die Zeit, die noch für andere Medien da ist. Das mag nicht so tragisch sein, wenn dafür wenige oft die Glotze (26%) oder der Radio (2 1 %) läuft, klingt aber schon nicht mehr so toll, wenn dies auch die "Nutzung" von Büchern (25%) und Zeitschriften (21%) betrifft. Bei fast 50 Prozent habe die Internetnutzung hingegen nicht zu einer Reduzierung der Zeit geführt, die für andere Medien verwendet wird."
- Footnote
- Vgl. auch: http://heise-online.de/tp/deutsch/inhalt/te/9149/1.html und zur Studie: http://www.aolpresse.de/aol/studien.shtml
-
Allhoff, M.: Pfadfinder im Datendschungel : Einmal umgekehrt: Menschen ersetzen (Such-) Maschinen (2001)
0.01
0.00749786 = product of:
0.02999144 = sum of:
0.02999144 = weight(_text_:und in 982) [ClassicSimilarity], result of:
0.02999144 = score(doc=982,freq=26.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.26505727 = fieldWeight in 982, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=982)
0.25 = coord(1/4)
- Abstract
- Würden Sie das bitte buchstabieren? Jacqueline Dietz von der Internet-Auskunft Talking.net ist einen Moment lang irritiert. "S-a-h-r-a-o-u-i?" fragt sie nach. Zugegeben, die Frage war ein wenig exotisch. Der Anrufer sucht Nachrichten über einen Nomadenstamm der westlichen Sahara. Doch schon kommt die Antwort im Cyberslang. "Schauen Sie doch mal unter http://www.der-ueberblick.de/archiv/199904/199904.067/content.html nach." Tatsächlich findet sich gleich unter der ersten Empfehlung ein aktuelles Interview mit dem deutschen Vertreter der Polisario zum Freiheitskampf der Sahraoui in Marokko. Und die freundliche Stimme am anderen Ende der Leitung kann dem Anrufer noch drei weitere Internet-Seiten vermitteln. Jacqueline Dietz ist von Beruf "Netguide". Früher half das Fräulein vom Amt mit Telefonnummern weiter. Heute nimmt der Internet-Berater dem Nutzer einen Teil seiner Recherche ab. Der Beruf ist so neu wie das Unternehmen, bei dem Dietz arbeitet. Talking.Net heißt der Informationsdienst, der mehr kann als herkömmliche Suchdienste oder klassische Telefonauskünfte. "Wir sind die erste Alles-Auskunft, die das Ziel hat, das Internet auch für Menschen ohne Computer nutzbar zu machen", sagt Pressesprecher Tilman Kube, "oder eben für Leute, die das langwierige eigene Suchen im Netz scheuen." - Virtuelle Privatsekretäre - Das Angebot von Talking.net umfasst jede Art von Auskunft, von Telefonnummein und Wettervorhersagen über Zugverbindungen bis hin zu der persönlichen Hilfe bei der Navigation durch das Internet.
Auf Wunsch des Kunden stellen die Netguides auch alle Autohändler in München zusammen. Oder sie finden heraus, wer in Berlin gerade den günstigsten Videorecorder verkauft. Als virtuelle Privatsekretäre können die Netguides auch beauftragt werden, eine Route zum gewünschten Reiseziel vorzuschlagen und gleich noch die Flüge und Übernachtungen zu buchen. V-Commerce (Video-Handel) ist ein weiterer Bereich, in dem das Unternehmen seine Dienste anbietet. Durch die persönliche Beratung in Bild und Ton sieht Talking.net Chancen, die hohe Abbruchrate bei Käufen im Internet zu senken. Zwei von drei Benutzern brechen derzeit den Kauf aufgrund von fehlender Beratung und mangelndem Vertrauen in die anonyme Online-Welt ab. Die Netguides hingegen erläutern den Kunden alle gewünschten Produkte und helfen bei der Abwicklung des Kaufs über das Internet. "Wir sind eigentlich kein typisches Internet-Unternehmen", sagt Pressespreeher Tilman Kube, "weil wir auf Menschen setzen. Wir glauben, dass der Mensch auch im Internet-Zeitalter mit anderen Menschen kommunizieren will". Bis Mitte des Jahres soll die Zahl der Netguides von derzeit 120 auf 2000 erhöht werden. Erreichbar ist Talking.net jeden Tag zwischen 8 und 24 Uhr unter der Rufnummer 11821. Die Abrechung erfolgt über die Telefonrechnung. So kostet die Sprachauskunft 0,5452 Mark für jede angebrochene Einheit von 15 Sekunden Dauer. Für Rückrufe, Fax oder E-Mail-Antworten staffeln sich die Preise der Auskunftei nach dem Schwierigkeitsgrad der Anfrage; sie liegen zwischen vier und elf Mark zuzüglich des zeitabhängigen Grundtarifs. Im Frühjahr wird Talking.Net seinen Dienst auch online anbieten. Bei Aufruf von www.talkingnet.de kann der Kunde seinen Internet-Berater auf dem Computer-Bildschirm sehen und gleichzeitig mit ihm per Telefon oder Mikrofon im PC sprechen.
Jeder Arbeitsplatz im Erfurter Kommunikationszentrum. ist mit einer Webcam ausgestattet. "Voice and visual over IP" nennt sich die Technologie, die in diesem Umfang in Deutschland erstmals eingesetzt wird. "Sie reden dann mit Menschen fast wie im richtigen Leben", sagt Tilman Kube. Der Bildschirm des Assistenten und der Bildschirm des Kunden lassen sich synchron schalten. Der Berater kann dadurch Internetseiten direkt auf den Bildschirm des Kunden pushen. Über die Funktion des shared browsing wird der Berater dem Anrufer auch beim Ausfüllen von Formularen helfen können. Dabei steuert der Netguide die Maus am heimischen Computer und weist dem Kunden so den Weg zum Ziel. Dass den modernen Pfadfindern im Internet die Arbeit ausgeht, ist unwahrscheinlich. Zu groß ist die Datenflut im Netz. Nach neuen Schätzungen umfasst das Internet bis heute bereits mehr als drei Milliarden Seiten, und jeden Tag kommen sieben Millionen weitere hinzu. Selbst die großen Suchmaschinen sind weit davon entfernt, das Internet in seiner Gesamtheit zu erfassen. Wer zum Beispiel bei Lycos (http://www.lycos.de) nach dem Stichwort "Suchdienst" fahndet, erhält als Resultat 8053 Internetseiten zur Auswahl - allein im deutschsprachigen Raum. Kein Wunder, dass rund die Hälfte der Nutzer Schwierigkeit damit haben, das Gesuchte zu finden. Oder das bereits Gefundene wiederzufinden. Nicht zuletzt ist nahezu die Hälfte der insgesamt 18 Millionen aktiven InternetSurfer in Deutschland erst seit einem Jahr im Netz - Anfänger also auf der Jagd im Datendschungel. Dass selbst die Netzprofis mitunter keine Antwort parat haben, dafür sorgen Anfragen nach "der Höhe der Spekulationszinsen in Frankreich". Ein Netguide schaltete nach sieben Stunden entnervt seinen Computer aus
-
Web intelligence: research and development : First Asia-Pacific Conference, WI 2001, Maebashi City, Japan, Oct. 23-26, 2001, Proceedings (2003)
0.01
0.00746575 = product of:
0.029863 = sum of:
0.029863 = weight(_text_:und in 2832) [ClassicSimilarity], result of:
0.029863 = score(doc=2832,freq=58.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.26392213 = fieldWeight in 2832, product of:
7.615773 = tf(freq=58.0), with freq of:
58.0 = termFreq=58.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2832)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd - Information 54(2003) H.6, S.378-379 (T. Mandl): "Im Oktober 2001 fand erstmals eine Tagung mit dem Titel "Web Intelligence" statt. Ist dies nun eine neue Disziplin oder der Versuch analog zu "Artificial Intelligence" und "Computational Intelligence" ein neues Modewort zu kreieren? Geht es um den Einsatz sogenannter intelligenter Verfahren, um mit dem Internet umgehen zu können oder erscheint das Internet als "emerging global brain" (Goertzel 2002), also als eine unerschöpfliche Quelle von Wissen, die nur geschickt ausgebeutet werden muss? Kommt also die Intelligenz aus dem Web oder dient die Intelligenz als Werkzeug für das Web? Der Tagungsband ist seit Anfang 2003 verfügbar und bietet nun den Anlass, diesen Begriff anhand der darin präsentierten Inhalte zu bewerten. Die Herausgeber führen in ihrem einleitenden Artikel gleich die Abkürzung WI ein und versuchen tatsächlich "Web Intelligence" als neue Sub-Disziplin der Informatik zu etablieren. Zu diesem Zweck greifen sie auch auf die Anzahl der Nachweise für diese Phrase in Suchmaschinen zu. Zwar lieferten die Systeme angeblich Zahlen von über einer Million (S. 4), aber dies überzeugt sicher noch niemanden, das Studium der WI aufzunehmen. Allerdings weist dieses Vorgehen schon auf einen Kern der WI hin: man versucht, aus dem im Web gespeicherten Wissen neues Wissen zu generieren. Damit wäre man sehr nahe am Data oder eben Web-Mining, jedoch geht die Definition der Autoren darüber hinaus. Sie wollen WI verstanden wissen als die Anwendung von Künstlicher Intelligenz sowie Informationstechnologie im Internet (S. 2). Da nun Künstliche Intelligenz bei allen Meinungsverschiedenheiten sicherlich nicht ohne Informationstechnologie denkbar ist, wirkt die Definition nicht ganz überzeugend. Allerdings beschwichtigen die Autoren im gleichen Atemzug und versichern, diese Definition solle ohnehin keine Forschungsrichtung ausschließen. Somit bietet sich eher eine Umfangsdefinition an. Diese solle die wichtigsten Stoßrichtungen des Buchs und damit auch der Tagung umfassen. Als Ausgangspunkt dient dazu auch eine Liste der Herausgeber (S. 7f.), die hier aber etwas modifiziert wird: - Grundlagen von Web Informationssystemen (Protokolle, Technologien, Standards) - Web Information Retrieval, WebMining und Farming - Informationsmanagement unter WebBedingungen - Mensch-Maschine Interaktion unter Web-Bedingungen (hier "HumanMedia Engineering" S. XII) Eine grobe Einteilung wie diese ist zwar übersichtlich, führt aber zwangsläufig zu Ouerschnittsthemen. In diesem Fall zählt dazu das Semantic Web, an dem momentan sehr intensiv geforscht wird. Das Semantic Web will das Unbehagen mit der Anarchie im Netz und daraus folgenden Problemen für die Suchmaschinen überwinden, indem das gesamte Wissen im Web auch explizit als solches gekennzeichnet wird. Tauchen auf einer WebSeite zwei Namen auf und einer ist der des Autors und der andere der eines Sponsors, so erlauben neue Technologien, diese auch als solche zu bezeichnen. Noch wichtiger, wie in einer Datenbank sollen nun Abfragen möglich sein, welche andere Seiten aus dem Web liefen, die z.B. den gleichen Sponsor, aber einen anderen Autor haben. Dieser Thematik widmen sich etwa Hendler & Feigenbaum. Das Semantic Web stellt ein Ouerschnittsthema dar, da dafür neue Technologien (Mizoguchi) und ein neuartiges Informationsmanagement erforderlich sind (z.B. Stuckenschmidt & van Harmelen), die Suchverfahren angepasst werden und natürlich auch auf die Benutzer neue Herausforderungen zukommen. Diesem Aspekt, inwieweit Benutzer solche Anfragen überhaupt stellen werden, widmet sich in diesem Band übrigens niemand ernsthaft. Im Folgenden sollen die einzelnen Themengebiete anhand der im Band enthaltenen Inhalte näher bestimmt werden, bevor abschließend der Versuch eines Resümees erfolgt.
- Grundlagen von Web Informationssystemen Protokolle, Technologien und Standards existieren inzwischen mannigfaltig und lediglich für spezifische Anwendungen entstehen weitere Grundlagen. In dem vorliegenden Band gibt es etwa ein Datenmodell für XML-Datenbanken (Wuwongse et al.) und den Vorschlag einer 3DModellierung (Hwang, Lee & Hwang). Auch für Proxy-Server werden neue Algorithmen entwickelt (Aguilar & Leiss). - Web Information Retrieval, WebMining und Farming Neben klassischen Themen des Information Retrieval wie kontrolliertem Vokabular (Sim & Wong), Ranking (Wang & Maguire), Kategorisierung (Loia & Luongo) und Term-Erweiterung (Huang, Oyang & Chien) stehen auch typische Web Information Retrieval Themen. Multimedia Retrieval spielt eine wichtige Rolle im Web und dazu gibt es Beiträge zu Audio (Wieczorkowska & Ra- Wan, Liu & Wang) und Grafiken (Fukumoto & Cho, Hwang, Lee & Hwang). Das Hype-Thema Link-Analyse schlägt auch gleich den Bogen hin zum Web-Mining, ist mit fünf Beiträgen aber eher unterrepräsentiert. Link-Analyse stellt die Frage, was sich aus den inzwischen wohl über zehn Milliarden Links im Internet folgern lässt. So extrahieren zwei Beiträge die zeitliche Veränderung sozialer Strukturen in Web Communities. Matsumura et al. untersuchen, ob Außenseiter sich auch für die innerhalb einer Community diskutierten Themen interessieren und werten dies als Maß für die Verbreitung des Themas. Bun & Ishizuka interessieren sich nur für die Änderungen innerhalb einer Gruppe von thematisch zusammengehörigen Web-Abgeboten und analysieren in diesem Korpus die wichtigsten Sätze, die neu entstehende Themen am besten repräsentieren. Andere Mining-Beiträge befassen sich mit der Erstellung von Sprachressourcen (Chau & Yeh). - Informationsmanagement unter WebBedingungen Für das Informationsmanagement gelten Ontologien zur Beschreibung des vorhandenen Wissens als wichtiges Instrument und dementsprechend ist "Ontologie" auch ein Kandidat für das höchst-frequente Wort in dem Tagungsband.
Einen weiteren wichtigen Aspekt stellt nach wie vor E-Learning dar, das u.a. neue Anforderungen an die Erstellung und Verwaltung von Lernmodulen (Forcheri et al.) und die Zusammenarbeit von Lehrern und Schülern stellt (Hazeyama et al., Liu et al.). - Mensch-Maschine Interaktion unter Web-Bedingungen Benutzermodellierung (Estivill-Castro & Yang, Lee, Sung & Cho) hat mit der Popularität des Internet eine neue Dimension gewonnen und ist besonders im kommerziellen Umfeld sehr interessant. Eine Wissensquelle hierfür und für andere Anwendungen sind Log-Files (Yang et al.). Breiten Raum nehmen die Visualisierungen ein, die häufig für spezielle Benutzergruppen gedacht sind, wie etwa Data Mining Spezialisten (Han & Cercone) und Soziologen, die sich mit Web-Communities befassen (Sumi & Mase). Agenten (Lee) und Assistenten (Molina) als neue Formen der Interaktion treten nicht zuletzt für E-Commerce Anwendungen in Erscheinung. In diesem Kontext der Mensch-Medien-Beziehung soll das Ouerschnittsthema WebCommunities genannt werden, in dem die sozialen Aspekte der Kooperation (Hazeyama et al.) ebenso wie das Entdecken von Gruppenstrukturen (Bun & Ishizuka) untersucht werden. Dagegen kommen kaum empirische Evaluierungen vor, die belegen könnten, wie intelligent denn die Systeme nun sind. Worin liegt nun der Kern der Web Intelligence? Der Aspekt Web Mining befasst sich mit der Extraktion von Wissen aus dem riesigen Reservoir Internet während der Aspekt Web-Informationssysteme den Einsatz so genannter intelligenter Technologien in Informationssystemen im Internet behandelt. Da jedoch das Spektrum der eingesetzten Informationssysteme praktisch beliebig ist und auch die Auswahl der intelligenten Technologien keinen spezifischen Fokus erkennen lässt, stellt Web Intelligence momentan eher einen bunten Strauß dar als ein klar abgegrenztes Feld. Das Web taugt inzwischen kaum mehr zur Abgrenzung von Technologien. Die Beiträge sind stärker von den Communities der Autoren geprägt als von der Web Intelligence Community, die vielleicht noch gar nicht existiert. Wenn doch, so befindet sie sich in einem frühen Stadium, in dem sich wenig Gemeinsamkeiten zwischen den Arbeiten erkennen lassen. Allerdings macht die mangelnde Kohärenz die einzelnen Beiträge keineswegs uninteressant. Dieser Meinung sind offensichtlich auch die 57 Mitglieder des Programmkomitees der Tagung, unter denen auch drei deutsche Wissenschaftler sind. Denn für 2003 ist eine weitere Tagung geplant (http://www.comp.hkbu. edu.hk/WIo3/)."
-
Jünger, G.: ¬Ein neues Universum (2003)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 2553) [ClassicSimilarity], result of:
0.029343603 = score(doc=2553,freq=56.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 2553, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2553)
0.25 = coord(1/4)
- Content
- Eine stetige Erfahrung der Techniksoziologie und -geschichte besagt, dass sich wirklich neue Konzepte, die ihrer Zeit vorauseilen, am Ende nicht durchsetzen können. Erfolg haben stattdessen mittelmäßige Nachbildungen der ersten Idee, die dann, um periphere Funktionen und Dekorationen erweitert, als große Innovationen auftreten. Beispiele für zweitbeste Lösungen, von denen jeder weiß, dass sie nur Krücken sind, liefert gerade die Informatik in großer Zahl. Das Gespann der Programmiersprachen Smalltalk und C++ gehört dazu, aber auch das World Wide Web, das wir heute kennen, bleibt weit hinter Konzepten eines universalen, globalen Informationssystems zurück, die lange vor der Definition des Hypertext-Protokolls durch Tim Berners-Lee entwickelt worden sind. Die Frage nach der technischen Vorgeschichte und ihren verpassten Chancen ist keineswegs nur von akademischem Interesse. Das "Xanadu" genannte System, das zum ersten Mal das weltweit vorhandene Wissen in digitaler Form radikal demokratisieren wollte, kann sehr gut als Folie dienen für die Diskussion über die zukünftige Entwicklung des WWW. Zweifellos ist der Wunsch, möglichst viel Wissen anzuhäufen, uralt. Er hat die Errichter der Bibliothek von Alexandria angetrieben, die kopierenden und kommentierenden Mönche des Mittelalters oder die Enzyklopädisten des 18. Jahrhunderts in Frankreich. Spätestens seit dem 20. Jahrhundert war die pure Menge des nun Wissbaren so nicht mehr zu bewältigen. Über die materielle Ablage der Dokumente hinaus mussten neue Organisationsprinzipien gefunden werden, um den Berg zu erschließen und seine Bestandteile untereinander in nutzbarer Weise zu verbinden. Nur dann konnte eine Wissenschaftlerin oder ein Wissenschaftler jetzt noch in vertretbarer Zeit zum aktuellen Wissensstand auf einem Gebiet aufschließen. Im Epochenjahr 1945 entwarf Vannevar Bush, ein wissenschaftlicher Berater von Roosevelt während des Zweiten Weltkriegs, eine erste Antwort auf die Frage nach einem solchen Organisationsprinzip. Er nannte sein System "Memex" (Memory Extender), also "Gedächtniserweiterer". Wissen sollte in der Form von Mikrofilmen archiviert und die dabei erzeugten Einzelbestandteile sollten so mit einander verknüpft werden, dass das sofortige Aufsuchen von Verweisen möglich würde. Technisch misslang das System, mit Hilfe von Mikrofilmen ließ es sich wohl kaum realisieren. Aber der Gedanke war formuliert, dass große Wissensbestände nicht unbedingt in separaten Dokumenten und überwiegend linear (Seite 2 folgt auf Seite 1) angeordnet zu werden brauchten. Sie können durch interne Verknüpfungen zwischen Einzelseiten zu etwas Neuem zusammengefügt werden. Der Flugzeugingenieur Douglas Engelbart las schon in den Vierzigerjahren von Bushs Idee. Ihm gebührt das Verdienst, sie auf die neue Technik der digitalen Computer übertragen zu haben. Eine Sitzung der "Fall Joint Computer Conference" im Jahr 1968 demonstrierte seine "NLS" (oN Line System) genannte Verwirklichung des Memex-Konzepts in der Praxis und war für viele Teilnehmer die Initialzündung zu eigenen Versuchen auf diesem Gebiet. NLS war ein riesiges Journal von einzelnen Memos und Berichten eines Vorgängerprojekts, das es den beteiligten Wissenschaftlern erlaubte, über adressierte Verweise unmittelbar zu einem benachbarten Dokument zu springen - ein Netz aus Knoten und `Kanten, dem nur noch ein geeigneter Name für seine neue Eigenschaft fehlte:
- Hypertext - Nicht nur den Namen "Hypertext" für ein solches Netz, sondern auch entscheidende Impulse zu einer konkreten Ausgestaltung eines durch Links verknüpften Netzes steuerte ab 1965 Ted Nelson bei. Sein mit dem Namen "Xanadu" verbundenes Wissenschaftsnetz gibt noch heute die Messlatte ab, an der sich das WWW behaupten muss. Nelson versuchte, sein Konzept auch kommerziell zum Erfolg zu bringen. Zeitweise konnte er auf ein starkes finanzielles Engagement der CAD-Firma Autodesk rechnen, die sich jedoch nach ausbleibenden Erfolgen aus diesem Engagement zurückzog. Heute ist der Quellcode der Software frei zugänglich, und die Website xanadu.net informiert über die Aktivitäten der kleinen Xanadu-Gemeinde von heute. Nelson selbst stellt sein Projekt als ein geschlossenes System von Dokumenten dar, dessen Zugang man ähnlich erwirbt wie den zu einem Provider oder zum Zahlfernsehen. Dokumente werden in diesem aus vernetzten Computern bestehenden System binär gespeichert, unabhängig davon, ob im einzelnen Dokument Bilder, Müsik, Text oder sonst etwas vorliegen. Sie zerfallen in winzige, aber identifizierbare Bestandteile, so dass jeder Dokumententeil mit einer eindeutigen ID versehen ist und einem bestimmten Autor zugeordnet werden kann. Liest ein Leser ein Dokumententeil in Xanadu, wird dadurch automatisch eine Gutschrift für das Konto des Urhebers des Dokuments erzeugt. Wie im existierenden Web sind einzelne Wörter, Bilder oder andere Medieninhalte Anker zu Verweisen auf andere Dokumentenbestandteile, die sich per Mausklick aufrufen lassen. Im Unterschied zum Web aber führt der Weg nicht nur in eine Richtung. Stichwort A verweist nicht nur auf X, sondern X macht auch alle Dokumente kenntlich, von denen aus auf X gezeigt wird. Es ist also jederzeit nachvollziehbar, wo überall von einem Dokument Gebrauch gemacht wird. Dadurch lässt sich überprüfen, ob ein als Beleg verwendeter Verweis zu Recht oder zu Unrecht angegeben wird.
- Gutschriften für Autoren - Es geht aber noch weiter: Prinzipiell wird allen Xanadu-Teilnehmern garantiert, vorhandene Dokumentebestandteile durch so genannte Transclusions zitieren zu können. Ein Rechtemanagement für Lesezugriffe ist ja bereits integriert. Es ist also jederzeit möglich, dass jemand für ein Thema, das interessant erscheint, eine neue Anthologie erzeugt, ohne dass vorher Genehmigungen eingeholt werden müssen. Und anders als das WWW ist Xanadu ein Instrument für Autoren: An jede vorhandenen Seite können Kommentare angefügt werden. Um den Überblick zu behalten, werden sie anders dargestellt als ein Quellennachweis ("getypte Links"). Änderungen, die an einem Knoten vorgenommen werden, indem etwa ein Kommentar hinzukommt, können anderen Lesern vom System angezeigt werden, so dass man auf diese Weise lebendige Debatten und permanente Onlinekonferenzen führen kann. Ohne dass Administratoren regelnd eingreifen müssen, spiegelt das Xanadu-Netz damit die Interdependenz der realen Welt wider. Im Zeitalter der Fachidioten wird Wissen in einer Form repräsentiert, die die Verflechtung der Dinge untereinander hervorhebt und Kontroversen sichtbar macht. Das System schreibt dabei seine Geschichte selbst, da eine Versionskontrolle, verbunden mit direktem Dokumentenvergleich, die unterschiedlichen redaktionellen Bearbeitungsstufen eines Dokumentknotens nachvollziehbar macht.
- Forschungsdebatten - Die Vorteile dieses Systems vor dem Web liegen auf der Hand: Alle Urheberrechte sind grundsätzlich und zugunsten der tatsächlichen Autoren geregelt, auch im Falle der Belletristik, die in der Regel nur konsumiert wird. Darüber hinaus profitierte die wissenschaftliche Arbeit von der Möglichkeit, Texte zu kommentieren oder vorhandene Argumentationen zitierend in die eigene Darstellung aufzunehmen. Forschungsdebatten sind jederzeit an jeder Stelle möglich - und zugänglich werden sie durch die Funktion, Änderungsanzeigen für bestimmte Knoten abonnieren, zu können. Damit wird es einem Autor möglich, auf eine Entgegnung zügig zu antworten. So können nicht nur einzelne Knoten, sondern ganze Knotennetze bearbeitet werden. Man kann also eine vorhandene Darstellung zustimmend übernehmen, aber die zwei, drei Zusatzpunkte hinzufügen, in denen die eigene Meinung vom Knotenstandard abweicht. Schließlich schafft ein System wie Xanadu mit Versionskontrolle und garantiertem Speicherplatz ein Dauerproblem des vorhandenen Webs mit seinen toten Links aus der Welt und erzeugt mit dem eingebauten Dokumentenvergleich ein Maximum an Übersicht.
- Technische Hürden - Bleibt die Frage, weshalb Xanadu mit seiner Vision, das Weltwissen one mouse-click away erreichbar zu machen - Nelson spricht gar von einem docuverse -, bislang so erfolglos blieb. Ernst zu nehmen sind zunächst die technischen Anforderungen, die Xanadu stellt. Sie beginnen bei einer Editorensoftware, die die Autorenkennungen- vorhandener und zitierter Dokumentknoten bewahrt. Dass diese Software am Ende weniger techniklastig ist als die heutigen HTML-Editoren, wie Nelson annimmt, darf bezweifelt werden. Hinzu kommen Anforderungen an Rechnersysteme und Verwaltungsaufgaben: Da Xanadu ein konsistentes Dokumentmanagement garantieren und Dokumente für den Notfall auch redundant auf mehreren Rechnern gleichzeitig vorhalten muss, wären die technischen und Managementherausforderungen für ein aus zig Milliarden Dokumenten bestehendes System beachtlich. Andere Gründe sind prinzipieller Art: Die Bereitschaft, für Inhalte auch nur mit kleinen Beiträgen zu zahlen, ist bei den meisten. Internetnutzern als recht gering anzusetzen. Anders ließe sich das Scheitern vieler Anbieter für Bezahlinhalte im bestehenden Web kaum interpretieren. Möglicherweise gibt es auch einen latenten Widerwillen, einer zentralen und weltweit auftretenden Organisation- und trete sie mit noch so ehrenhaften Zielen an - die Aufgabe anzuvertrauen, das Weltwissen abzulegen. Hier hat offenbar - Ironie der Geschichte - das Computernetz des Militärs die Nase vorn, das aus Gründen eines auch in der Katastrophe funktionierenden Systems auf stets austauschbare Rechner setzt und das Chaos ins Kalkül aufgenommen hat. Es ist daher absehbar, dass sich Xanadu in der skizzierten Form nicht mehr durchsetzen wird. Damit ist wahrscheinlich auch eine Chance für eine neue Internetarchitektur vertan. Was als Wunsch aber für die Weiterentwicklung des bestehenden Webs nicht laut genug vorgebracht werden kann, ist, dass die Visionen und konkreten Möglichkeiten von Xanadu stärker berücksichtigt werden sollten. Vielleicht sind die Aversionen gegen zentral geregelte Systeme aber immerhin dazu gut, dass das ".Net"; das Lieblingsprojekt des Softwaregiganten Microsoft, zu einem offenen System umgewandelt wird.
-
Endres, A.; Fellner, D.W.: Digitale Bibliotheken : Informatik-Lösungen für globale Wissensmärkte (2000)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 2834) [ClassicSimilarity], result of:
0.029343603 = score(doc=2834,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 2834, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2834)
0.25 = coord(1/4)
- Footnote
- Rez. in BuB 53(2001) H.5, S.340 (D. Lewandowski): "Leider gibt es aber auch viele negative Seiten anzuführen: Das Verständnis der Autoren ist ein rein naturwissenschaftlich-technisches, was schon am Untertitel des Buches deutlich wird. Die Welt des Wissens scheint nur aus Natur-, Ingenieur- und Wirtschaftswissenschaften zu bestehen; sonstige Gesellschaftswissenschaften und der gesamte Bereich der Geisteswissenschafteii bleiben ausgeklammert." - "Der weitaus größte Mangel des Buches liegt jedoch in dem hier ausgedrückten Verständnis des Bibliothekswesens. In weiten Teilen entsteht der Eindruck, der momentan stattfindende Wandel befähige nun die Ingenieure, den Bibliothekaren zu erklären. wie sie ihre Arbeit richtig zu machen hätten. Bibliotheken werden durchgehend als überkommene Einrichtungen ohne Dienstleistungsverständnis angesehen. Bibliothekare hätten die Tendenz, sich an den Inhalten auszurichten, während Informatiker gute Lösungen liefern sollen, indem sie sowohl technische als auch nicht-technische Fragen beantworten. Geradezu zynisch ist es, wenn die Bibliothekare, die im Verlauf desTextes weitgehend als außenstehend behandelt wurden, auf einer der letzten Seiten doch noch zur Mitarbeit eingeladen werden. Dabei scheint diese Mitarbeit dringend nötig, da die Autoren bereits mit grundlegenden Begriffen und Aufgaben ihre Probleme haben: So durchsuchen nach ihrer Meinung WWW-Suchmaschinen Schlagworte, große Öffentliche Bibliotheken lagern ihre Bestände durchweg in Magazinen (gemeint sind die UniBibliotheken), und die Langzeitarchivierung scheint kein allzu großes Thema zu sein. Digitale Bibliotheken werden als Wirtschaftsbetriebe angesehen, die beispielsweise von Fachgesellschaften betrieben werden; in diesem Zuge wird der Gedanke eines freien Zugangs zu Informationen geopfert. Durch die gravierenden Mängel auf der Reflexionsebene und bei genuin bibliothekarischen Fragestellungen leistet das Buch nicht das, was es eigentlich hätte leisten können: eine umfassende, kompetente Darstellung des gesamten Themas. Vielleicht hätte das realisiert werden können, wenn man noch einen Fachmann/eine Fachfrau aus dem Bibliothekswesen mit zum Antorenteam dazu genommen hätte." - ZfBB 48(2001) H.3/4, S.248 (U. Rosemann: "Ein sehr lesenswertes Buch: Basisinformationen werden fundiert und leicht verständlich erläutert und Optionen für die Zukunft der Bibliotheken aufgedeckt. Das dabei die Autoren nicht immer nur freundlich mit den Bibliothekaren umgehen, überrascht nicht, wenn man weiß, wie häufig Informatik-Professoren konventionelle Bibliotheken nutzen. So reflektiert das Buch letztlich die Herausforderungen,vor denen alle Bibliotheken stehen"). - nfd 52(2001) H.6, S.366-367 (T. Mandl)
-
Schmidt, A.P.; Rössler, O.E.: ¬Ein neues Papier für die Welt : Medien(r)evolutionen auf dem Weg zur Menschwerdung (2003)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 3443) [ClassicSimilarity], result of:
0.029343603 = score(doc=3443,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 3443, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3443)
0.25 = coord(1/4)
- Abstract
- Die Erfindung der Sprache war die erste Medien(r)evolution der Menschheitsgeschichte. Sie fand in zwei Stufen statt. Die erste Stufe war die Menschwerdung in der Familie, ausgehend von der Mutter-Kind-Dyade. Die zweite Stufe war eine (R)evolution, deren Brisanz wir uns heute kaum mehr vorstellen können. Was zuvor auf die emotionale Zuwendung und Opferbereitschaft im engsten Kreis beschränkt war, wurde auf einmal wie ein Handschuh externalisiert. Alle durften an den subtilsten Nuancen, die ursprünglich im kleinsten Kreis auf intimer Basis entstanden waren, teilnehmen, und an dem großen Teppich weiterarbeiten und an seiner Schönheit und Heiligkeit beitragen. Sprachwissenschaftler wissen, daß jede Sprache ein metaphysisch unendlich wertvolles Objekt darstellt. Der Spruch "Der liebe Gott" hat viele Tiere und Pflanzen gemacht und viele partielle Differentialgleichungen" (Ulrich Wais) bedarf der Ergänzung: "Und viele Sprachen". Gemeint ist in allen drei Fällen, daß beliebig viele Forscherleben in jede der genannten Spezies investiert werden können, ahne daß die Majestät des betreffenden Forschungsgegenstandes dabei im geringsten an Bedeutung verlöre. Die zweite Medien(r)evolution war nicht die Schrift, obwohl natürlich die Erfindung des Buches natürlich mit der Erfindung der DNS vergleichbaren Evolutionsfortschritt darstellt. Man muß auch sehen, daß durch das Internet diese Erfindung wieder in Gefahr gerät, da am Buch das wichtigste seine Verfügbarkeit auf nahezu unbegrenzte Zeit an vielen in ihrem Überleben voneinander vollständig entkoppelten Orten. Diese Eigenschaft teilt das Buch mit der Sprache. Das Internet hat sie verloren. Aber wir sprechen hiervon einer anderen Artvon (R)evolutionen. Die eigentliche (R)evolution der Sprache war, wie gesagt, nicht ihr Beitrag zu neuen Farm der Informationserhaltung wie meist angenommen wird, sondern ihr Öffnen eines Weltenhorizontes von unendlicher Attraktivität. Deshalb wurde oben das in einem wissenschaftlichen Text ungewohnte Wort "heilig" ahne Anführungsstriche verwendet. Die Stufe ist also ein Teil der Menschwerdung. Zum ersten Mal ereignet sich heute ein vergleichbarer Himmel - ein öffnender Evolutionssprung - erneut. Wiederum ist vollkommen unabsehbar, was die Menschheit in das neue Juwel hineinpacken wird. Mit dem Internet ist diese zweite Phase der Menschwerdung eingeleitet.
-
Lossau, N.: ¬Der Nutzer soll König werden : Digitale Dienstleistungen in wissenschaftlichen Bibliotheken: Das Internet setzt Maßstäbe (2005)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
0.029343603 = score(doc=4430,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 4430, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4430)
0.25 = coord(1/4)
- Abstract
- Wissenschaftliche Bibliotheken haben im Laufe ihrer Geschichte verschiedene Rollen übernommen. Sie sind langfristige Bewahrer des Wissens, kompetente Vermittler von Informationen und verlässliche Garanten für Qualität. Für die Zukunft wird eine weitere Rolle zentrale Bedeutung gewinnen: die des Dienstleisters'. Nicht mehr die Größe des Bestands oder die Exzellenz einer Sammlung werden die entscheidenden strategischen Erfolgsfaktoren sein. Die wissenschaftliche Bibliothek 2007 stellt vielmehr den Nutzer oder auch Kunden in den Mittelpunkt. Nicht mehr implizit, im Sinne einer wohlmeinenden Fürsorge durch den Informationsprofi Bibliothekar. Kundenorientierung bedeutet künftig, dass alle bibliothekarischen Aktivitäten sich daran messen lassen müssen, ob sie im Ergebnis für den Nutzer eine sinnvolle Dienstleistung darstellen. Erfolg wird definiert als Akzeptanz durch den Kunden. Referenzrahmen für die Gestaltung von digitalen Services ist das Internet geworden, das sich zur maßgeblichen, branchenübergreifenden Plattform für digitale Dienstleistungen entwickelt hat. Wissenschaftliche Bibliotheken können sich nicht länger den allgemeinen Leistungsmerkmalen von Internetservices entziehen: intuitive Bedienbarkeit auch für den Laien, überschaubares Funktionen-Angebot, überzeugende Performance, rascher Wechsel von einem Dienst in den anderen, durchgehende Erreichbarkeit sowie die »Garantie« für ein Erfolgserlebnis. Eigene, lieb gewonnene Gewohnheiten und Traditionen von Bibliotheken werden sehr sorgfältig zu prüfen sein, ob sie aus Sicht der Nutzer und gemessen an den Service-Maßstäben des Internet weiterhin Bestand haben können. Bibliotheken können nicht länger nur von Bibliotheken lernen. Erfolg versprechend können zukünftig die sorgfältige Wahrnehmung und Analyse branchenfremder Dienstleistungen sein, weniger inhaltlich als methodologisch und strukturell. Lernen vom Internet bedeutet aber nicht, die dortigen Erfolgsrezepte bloß zu kopieren. Bibliotheken haben eigene, traditionelle Stärken, die sie kreativ in neue Services einbringen sollten. Dazu gehören die neutrale Bewertung von Informationsquellen, die inhaltlich relevante Kategorisierung und Filterung, das Bemühen um kostengünstigen Zugriff für den Nutzer sowie die dauerhafte Sicherung des Informationszugriffs. Die wissenschaftlichen Bibliotheken verstehen sich als Garanten einer qualitativ hochwertigen Literaturversorgung für die wissenschaftliche Community. Was bedeutet es, Informations-Dienstleistungen im Jahr 2007 zu erbringen? Wie definieren wir digitale Services im Zeitalter des Internet? Der folgende Artikel versucht Antwort auf diese Fragen zu geben und damit Orientierungshilfe für die weiteren, entscheidenden Weichenstellungen für Bibliotheken.
-
Krug, S.: Don't make me think : Web Usability: Das intuitive Web
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 4988) [ClassicSimilarity], result of:
0.029343603 = score(doc=4988,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 4988, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4988)
0.25 = coord(1/4)
- Abstract
- Wie Webuser tatsächlich mit Websites umgehen; verblüffend einfache Website-Strategien; Layout und Navigation benutzerfreundlich gestalten
- Footnote
- Rez. in: Online-Mitteilungen 2006, H.88 [=Mitteilungen VÖB 59(2006) H.4], S.15-16 (M. Buzinkay): "Schon mal vorweg - dieses Buch ist von der Sorte, in welchem ich immer wieder gerne nachschlagen will. Auch wenn es sich sehr einfach lesen lässt, es bietet eine derartige Informationsfülle, dass es am besten direkt neben dem Bildschirm liegen bleibt. Aber zunächst ganz zum Anfang: Dieses Buch liefert Wissenswertes zum Thema Gebrauchsfähigkeit von Webseiten. Usability ist seit rund 10 Jahren ein Dauerbrenner in der Web-Entwicklung, und die Erkenntnisse erweitern sich fortwährend. Auch wenn neue Konzepte in der Nutzer- und Webseitenforschung mit dem der Usability wetteifern, so werden die Grundaussagen dieses Buches auch noch in 10 Jahren ihre Geltung haben. Der Autor, alt-gedienter Usability-Profi Steve Krug, präsentiert in der 2. und überarbeiteten Auflage eine Unmenge an Beispielen an "Do' s and' Dont's aus der Welt des Web. Die rund 200 Seiten sind vollbepackt mit praktischen Tips, Beispielen und Illustrationen aus der Praxis und der notwendigen Hintergrundinformation. Das Buch ist recht einfach aufgebaut. Zunächst erklärt Steve Krug seine Prinzipien des Usability, die er in seiner jahrelangen Arbeit entwickelt hat. Ein Prinzip gebe ich gerne weiter, und weil es schon auf dem Cover steht: Don't make me think! Will heißen: Eine Webseite soll so intuitiv gestaltet sein, dass Nutzer nicht ins Grübeln kommen, was sich hinter einem Link versteckt oder was überhaupt auf einer Seite zu finden ist. Aber nicht nur bei Webseiten, die im Eigenbau entstanden sind, fehlt es oft am notwendigsten was die Usability betrifft. Bevor Sie eine Webseite neu entwerfen oder neu gestalten möchten, lesen Sie dieses Buch. Es lohnt sich."
-
Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 123) [ClassicSimilarity], result of:
0.029343603 = score(doc=123,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 123, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=123)
0.25 = coord(1/4)
- Footnote
- Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
-
Boelen-Theile, C.: Er ist der Chef vom "Web ohne Grenzen" : Klaus U. Walth aus Frankenforst engagiert sich für ein barrierefreies Internet - Viele Kontakte (2006)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 179) [ClassicSimilarity], result of:
0.029343603 = score(doc=179,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 179, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=179)
0.25 = coord(1/4)
- Content
- "Wenn Klaus-U. Walth von barrierefreiem Internet spricht, stößt er häufig auf Unverständnis und Kopfschütteln. Wo sollen denn diese Barrieren sein? Einmal klicken, und das Internet "läuft"- so die landläufige Meinung. "Für Menschen mit Behinderungen gibt es tatsächlich viele Hürden im Internet", sagt Walth. "Das beginnt mit einer viel zu kleinen Schrift, die sich nicht vergrößern lässt." "Web ohne Grenzen e.V." heißt das ehrgeizige Projekt, mit dem Walth das Internet jetzt für alle Menschen öffnen will. 16 Mitglieder gibt es derzeit, darunter einige Fachgremien. Deutschlandweit will Web ohne Grenzen agieren. "Es werden mehr werden, denn barrierefreies Internet ist ein gesellschaftliches Anliegen." Das Büro des Marketing-Experten liegt unscheinbar im Frankenforster Gewerbegebiet, von hier hält er Kontakte zu seinen Mitstreitern in ganz Deutschland. Wir sind erst ganz am Anfang unserer Aufgabe", sagt der Vereinspräsident. "Schauen Sie hier", und Walth, klickt die Homepage der Kreissparkasse Köln an. Schnell hat er die Schrift um das Doppelte vergrößert und eine Schwarz-Weiß-Version der Seite auf seinem Bildschirm. "Klare Strukturen, die für eine gute Orientierung sorgen, lobt er. Bei einem großangelegten Test von acht Online-Bankenportalen habe die Kreissparkasse als eine von zwei Großbanken die Note "Gut" erhalten (mit der Commerzbank). Zweimal habe "Web ohne Grenzen" mangelhaft vergeben müssen. Vielen Bankern war diese Problematik gar nicht bewusst", sagt Walth. Denn für Farbenblinde ist Rot nicht gleich Rot und Blau nicht Blau. Im ungünstigsten Fall könnten die Inhalte der Seite nicht mehr erkannt werden: Der Kontrast auf der Website verschwimmt, eine Navigation ist nicht mehr möglich. "Deshalb ist eine Version in Scharzweiß notwendig", erklärt er. Bei der Kreissparkasse, deren Internet-Auftritt von der Gladbacher Oevermann Networks GmbH betreut wird, verzichte man auf unnötigen Schnickschnack wie blinkende Symbole und dergleichen. "Die Seiten müssen übersichtlich strukturiert seid, deutet Walth auf den Monitor. Dass nur zwei Banken gut abschnitten, zeige die Dimension des Problems. Leider sind die meisten Webdesigner für barrierefreie Internet-Seiten zu wenig sensibilisiert.« Generell werde zu wenig darauf geachtet, dass ein Surfen auf den Seiten auch ohne Maus möglich sein müsse. Für motorisch eingeschränkte Menschen sei dies eines der wichtigsten Voraussetzungen. Statt "schöner Seiten zu gestalten, müsse das Ziel "schöne und barrierefreie Seiten" sein. ,Das Bewusstsein wird sich ändern, hofft der Chef von Web ohne Grenzen. Das Jahr 2008 markiere dafür einen wichtigen Termin: Bis dahin müssen alle Kommunen ihre Seiten barrierefrei eingerichtet haben. Wir setzen auf den Gesetzgeber", hofft Waith auf einen Schub für seine Idee. Im Gegensatz zu Deutschland sei die USA bei diesem Thema schon weiter. Dort ist das barrierefreie Internet ein einklagbares Recht."
-
Levy, S.: Facebook : Weltmacht am Abgrund - Der unzensierte Blick auf den Tech-Giganten (2020)
0.01
0.007335901 = product of:
0.029343603 = sum of:
0.029343603 = weight(_text_:und in 824) [ClassicSimilarity], result of:
0.029343603 = score(doc=824,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25933182 = fieldWeight in 824, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=824)
0.25 = coord(1/4)
- Abstract
- Amerikas führender Technik-Journalist Steven Levy über das Unternehmen, das unsere Gesellschaft für immer verändert hat: Facebook Über zehn Jahre Gespräche mit Mark Zuckerberg: Niemand hat direkteren Zugang zu dem umstrittenen Tech-Genie als Steven Levy. Inside Facebook: Wie hinter verschlossenen Türen über das Schicksal von Milliarden Usern entschieden wird. Was auf uns zukommt: Mark Zuckerbergs Pläne für die Zukunft seines Unternehmens und die unserer Gesellschaft. Vom Start-up zur Weltmacht: Die dramatische Firmengeschichte von Facebook zeigt, wie aus dem Konzern das international einflussreiche Tech-Imperium werden konnte, von dem es heute heißt, es bedrohe die Demokratie. Das sich gegen immer lautere Stimmen behaupten muss, die fordern, der Konzern habe zu viel Einfluss und gehöre zerschlagen. Das mit über 1,7 Milliarden täglichen Zugriffen von weltweiten Nutzern über enorme Daten-Vorräte und eine Macht verfügt, die ihresgleichen sucht. Eine Macht, für die der Konzern heute immer deutlicher zur Rechenschaft gezogen wird. Facebook, WhatsApp, Instagram: Wie das Unternehmen sich von einer Social-Media-Plattform zu einem der einflussreichsten Unternehmen unserer Zeit wandeln konnte. Mit welchen skrupellosen Strategien es Mark Zuckerberg gelang, seine Mitbewerber im Kampf um die Vormachtstellung im Silicon Valley auszubooten. Was bei dem Skandal um Cambridge Analytica hinter den Kulissen geschah und wie Mark Zuckerberg und Sheryl Sandberg um die Zukunft von Facebook ringen.
- Content
- Steven Levy, Amerikas renommiertester Technik-Journalist (The Washington Post), schreibt einen mitreißenden Bericht aus dem Inneren des Unternehmens, der veranschaulicht, warum Facebook die Welt unumkehrbar verändert hat und dafür heute die Konsequenzen trägt.
- Issue
- Aus dem amerikanischen Englisch von Gisela Fichtl, Elisabeth Liebl, Stephan Kleiner, Sylvia Bieker, Karsten Singelmann und Barbara Steckhan.
-
Nentwich, M.: Cyberscience : research in the age of the Internet (2004)
0.01
0.007278363 = product of:
0.029113453 = sum of:
0.029113453 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
0.029113453 = score(doc=2440,freq=18.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.2572978 = fieldWeight in 2440, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2440)
0.25 = coord(1/4)
- BK
- 02.10 Wissenschaft und Gesellschaft
05.20 Kommunikation und Gesellschaft
- Classification
- AK 26700 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Wissenschaftsentwicklung, -wachstum, Innovation (SWB)
02.10 Wissenschaft und Gesellschaft
05.20 Kommunikation und Gesellschaft
- Footnote
- Rez in: Wechselwirkung 26(2004) Nr.128, S.109-110: "In seinem englischsprachigen Buch "cyberscience - Research in the Age of the Internet" beschäftigt sich Michael Nentwich mit den Auswirkungen der Informationsund Kommunikations- (I&K) - Technologien auf den Wissenschaftsbetrieb. Zwei The sen stehen im Zentrum: Die erste ist, dass die I&K-Technologien einige Rahmenbedingungen und praktisch alle Formen wissenschaftlicher Tätigkeit betreffen. Ein systematisches Screening macht deutlich, dass sowohl der organisatorische Rahmen des Wissenschaftsbetriebs wie auch die Wissensproduktion sowie die Formen der wissenschaftlichen Kommunikation und schließlich die Wissensvermittlung (Lehre) direkt betroffen sind. Eine zweite, darauf aufbauende These lautet, dass die vielen Entwicklungen, mit denen sich Wissenschaftler konfrontiert sehen - angefangen von der ständigen Nutzung des Computers am Arbeitsplatz über die Verlagerung der Kommunikation mit Kollegen in Richtung E-mail bis zu neuen elektronischen Publikationsformen - nicht nur, wie zumeist angenommen, die Kommunikation beschleunigen, sondern das Potenzial zu qualitativen Veränderungen des Wissenschaftssystems haben. Diese These wird mit Hinweisen auf bereits eingeleitete oder möglicherweise bevorstehende Veränderungen hinsichtlich eines Kernstücks der wissenschaftlichen Kommunikation, nämlich des Publikationswesens, wie auch der Ortsgebundenheit von Forschung und schließlich hinsichtlich der Verteilung der Rollen im Wissenschaftsbetrieb belegt."
- RVK
- AK 26700 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Wissenschaftsentwicklung, -wachstum, Innovation (SWB)
-
Krol, E.: ¬Die Welt des Internet : Handbuch und Übersicht (1995)
0.01
0.007203712 = product of:
0.028814849 = sum of:
0.028814849 = weight(_text_:und in 2447) [ClassicSimilarity], result of:
0.028814849 = score(doc=2447,freq=6.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25465882 = fieldWeight in 2447, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2447)
0.25 = coord(1/4)
- Abstract
- Das Buch bietet eine generelle Einführung ins Internet und dessen Benutzung sowie einen Überblick der Möglichkeiten, die das Internet bietet. Behandelt werden u.a.: das Netzwerkprotokoll TCP/IP, die Anpassung der Software, Datenschutz, die wichtigsten Netzdienste wie FTP, E-Mail und vieles mehr.
-
¬Die Welt von morgen (1998)
0.01
0.007203712 = product of:
0.028814849 = sum of:
0.028814849 = weight(_text_:und in 1119) [ClassicSimilarity], result of:
0.028814849 = score(doc=1119,freq=6.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.25465882 = fieldWeight in 1119, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1119)
0.25 = coord(1/4)
- Abstract
- Die Zukunft findet im Netz statt: da werden uns Software-Roboter helfen, uns in der Datenflut des Cyberspace zu orientieren. Sie werden uns im Laufe der Zeit gut kennenlernen und uns ohne unser direktes Zutun nützlich sein. In der Medizin wird das Wissen von Experten auch über große Entfernungen hinweg erschließbar, und sogar im Automobil hält das Internet schon Hof. Das 'Netz der Netze' wird zum Hort immer neuer Dienstleistungen. Aber wird Homo connectus - der Mensch mit Anschluß - all diese Wunderdinge auch kaufen wollen?
- Content
- Mit den Beiträgen: FIX, M.: Wissensroboter im Netz (S.68-71); LUBER, J. u. A. MACKEVICS: Tele-Medizin - der ferngesteuerte Arzt? (S.73-74); JAMEEL, A. u. A. FUCHS: Internet on wheels: das Auto mit eigener Internet-Adresse (S.74-75); GERLACH, E.: Was ist von der Vernetzung zu erwarten? (S.75-77); STEINER, V.: Leistungsfähige Infobahnen und praxisorientierte Dienste (S.77-78)