-
Alte Zeitschriften in Googles Buchsuche : Suchmaschine (2009)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 3619) [ClassicSimilarity], result of:
0.023527222 = score(doc=3619,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 3619, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3619)
0.25 = coord(1/4)
- Content
- "Nach Büchern folgen jetzt auch Zeitschriften: Google digitalisiert gedruckte Magazine und macht sie über die Buchsuche zugänglich. Möglich ist das durch eine Partnerschaft des Suchmaschinenbetreibers mit mehreren Zeitschriftenverlagen in den USA. Anders als viele von Google digitalisierte Bücher können die Zeitschriftenartikel auch in Deutschland gelesen werden. Unter den Magazinen finden sich zum Beispiel das New York Magazine, Popular Mechanics oder Ebony, aber auch Popular Science und Bulletin of Atomic Science. Auch Men's Health ist dabei. Andere Titel sollen noch folgen. In Googles Buchsuche kann man die indexierten Zeitschriften nach verschiedenen Begriffen durchsuchen. Für die Magazine selbst gibt es allerdings kein Verzeichnis: Eine gezielte Suche nach einer bestimmten Zeitschrift ist deshalb nicht möglich. Die einzelnen Ausgaben stehen als vollständige farbige Scans zur Verfügung. Neben einem Inhaltsverzeichnis wird auch eine Liste mit Schlüsselbegriffen der jeweiligen Edition angezeigt. Eine Unterteilung nach Jahreszahlen gibt es ebenfalls."
-
Panke, S.; Gaiser, B.: "With my head up in the clouds" : Social Tagging aus Nutzersicht (2008)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 3883) [ClassicSimilarity], result of:
0.023527222 = score(doc=3883,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 3883, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3883)
0.25 = coord(1/4)
- Abstract
- 28 Prozent der amerikanischen Internetnutzer/innen haben es bereits getan: Das freie Verschlagworten von Inhalten aller Art per Social Tagging gehört zu den Anwendungen aus dem Kontext von Web 2.0, die sich zunehmender Beliebtheit erfreuen (Rainie, 2007). Während sich die bisherige Forschung überwiegend inhaltsanalytisch mit dem Phänomen befasst, kommen im vorliegenden Beitrag so genannte "Power User" zu Wort. Um zu einer fundierteren Interpretation der in den Inhaltsanalysen gewonnenen Erkenntnisse beizutragen, wurden Interviews mit Personen durchgeführt, die mehrere Tagging Systeme parallel einsetzen, sich auch mit den technischen Grundlagen auskennen und als "Early Adopter" bereits seit geraumer Zeit aktiv sind. Entsprechend leitet der Beitrag von einer Synopse der aktuellen Literatur in die beschriebene Studie über und schließt mit einem Ausblick auf zukünftige Forschungsvorhaben im Kontext von Social Tagging.
-
Standard-Thesaurus Wirtschaft online (2009)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 3895) [ClassicSimilarity], result of:
0.023527222 = score(doc=3895,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 3895, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3895)
0.25 = coord(1/4)
- Content
- "Die ZBW Deutsche Zentralbibliothek für Wirtschaftswissenschaften - Leibniz-Informationszentrum Wirtschaft stellt ab sofort den Standard-Thesaurus Wirtschaft (STW) in der aktuellen Version 8.04 in Deutsch und Englisch online (http://zbw.eu/stw) bereit. Es ist möglich, nach Deskriptoren und Zugangsvokabular zu suchen oder im Systematikbaum zu blättern. Per direktem Link gelangt man von dort in die ZBW-Datenbank ECONIS (www.econis.eu). Der Thesaurus ist zur Nutzung im Semantic Web aufbereitet: Jeder Deskriptor ist mit einem persistenten Identifier versehen, für dessen langfristige Stabilität die ZBW garantiert. Die Thesaurus-Beziehungen sind als Daten (RDFa) in die Webseiten eingebettet. Über einen STW-Webservice (http://zbw.eu/beta/ stw-ws) können zum Beispiel Synonyme für eine Erweiterung von Suchen automatisiert abgefragt werden."
-
Staub, P.: Semantische Interoperabilität : Voraussetzung für Geodaten-Infrastrukturen (2009)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 181) [ClassicSimilarity], result of:
0.023527222 = score(doc=181,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 181, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=181)
0.25 = coord(1/4)
- Abstract
- Die gemeinsame, integrierte Nutzung von verteilten, heterogenen Geodaten stellt eine grosse Herausforderung dar. Ein wichtiger Ansatz zur Datenintegration ist die Entwicklung von Geodaten-Infrastrukturen (GDI). Sie stellen auf regionaler, nationaler oder internationaler Ebene einen technisch-organisatorischen Rahmen zur interoperablen Nutzung von verteilten Geodaten bereit. GDI stellen an die Interoperabilität grosse Ansprüche, die über die «klassische» Interoperabilität mittels OGC-Webdiensten hinausgehen. Eines der Hauptprobleme ist dabei die semantische Heterogenität bestehender Datenmodelle. Um diese in einer GDI integriert nutzen zu können, müssen Modelltransformationen definiert und ausgeführt werden können. Ein aktueller Ansatz aus der Forschung zeigt dafür eine Lösung auf, indem OGC-Webdienste mit einem neuen Konzept für semantische Modelltransformationen kombiniert werden.
- Content
- Vgl. auch: Staub P.: Über das Potenzial und die Grenzen der semantischen Interoperabilität von Geodaten. Diss. ETH Nr. 18201, ETH Zürich, 2009.
-
Web-2.0-Dienste als Ergänzung zu algorithmischen Suchmaschinen (2008)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 323) [ClassicSimilarity], result of:
0.023527222 = score(doc=323,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 323, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=323)
0.25 = coord(1/4)
- Abstract
- Mit sozialen Suchdiensten - wie z. B. Yahoo Clever, Lycos iQ oder Mister Wong - ist eine Ergänzung und teilweise sogar eine Konkurrenz zu den bisherigen Ansätzen in der Web-Suche entstanden. Während Google und Co. automatisch generierte Trefferlisten bieten, binden soziale Suchdienste die Anwender zu Generierung der Suchergebnisse in den Suchprozess ein. Vor diesem Hintergrund wird in diesem Buch der Frage nachgegangen, inwieweit soziale Suchdienste mit traditionellen Suchmaschinen konkurrieren oder diese qualitativ ergänzen können. Der vorliegende Band beleuchtet die hier aufgeworfene Fragestellung aus verschiedenen Perspektiven, um auf die Bedeutung von sozialen Suchdiensten zu schließen.
-
Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 681) [ClassicSimilarity], result of:
0.023527222 = score(doc=681,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 681, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=681)
0.25 = coord(1/4)
- Abstract
- Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
-
Stenzhorn, H.; Samwald, M.: ¬Das Semantic Web als Werkzeug in der biomedizinischen Forschung (2009)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 878) [ClassicSimilarity], result of:
0.023527222 = score(doc=878,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 878, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=878)
0.25 = coord(1/4)
- Abstract
- In der biomedizinischen Forschung werden besonders in den letzten Jahren vermehrt enorme Mengen an neuen Daten produziert und diese in Folge verstärkt per Internet veröffentlicht. Viele Experten sehen in dieser Vorgehensweise die Chance zur Entdeckung bisher unbekannter biomedizinischer Erkenntnisse. Um dies jedoch zu ermöglichen, müssen neue Wege gefunden werden, die gewonnenen Daten effizient zu verarbeiten und zu verwalten. In dem vorliegenden Artikel werden die Möglichkeiten betrachtet, die das Semantic Web hierzu anbieten kann. Hierfür werden die relevanten Technologien des Semantic Web im speziellen Kontext der biomedizinischen Forschung betrachtet. Ein Fokus liegt auf der Anwendung von Ontologien in der Biomedizin: Es wird auf deren Vorteile eingegangen, aber auch auf möglichen Probleme, die deren Einsatz in einem erweiterten wissenschaftlichen Umfeld mit sich bringen können.
-
Lischka, K.: Scherzbolde im Whitehouse.net : Die neuen Internet-Adressen wie .info oder.biz brachten nicht die erhoffte Systematik in das Netz (2003)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 1005) [ClassicSimilarity], result of:
0.023527222 = score(doc=1005,freq=16.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 1005, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1005)
0.25 = coord(1/4)
- Content
- "Fachleute sagten im Juli 1999 voraus, heute werde es mehr als 100 Millionen Domainnamen geben. Die Schätzung ging daneben: Derzeit gibt es nur halb so viele Internet-Adressen. Die befürchteten Probleme dagegen sind schon da: Eingängige Bezeichnungen in populären Namensräumen wie.com oder. net sind knapp und bisweilen teuer: So wurde wallstreet com für gut eine Million Euro verkauft. Neue Adressen, die die Netzverwaltung Icann seit zwei Jahren schrittweise einführt, sollten Abhilfe schaffen. Doch nach den bisherigen Erfahrungen sieht es nicht so aus, als seien.info oder.bix eine Lösung. Sieben neue Namensräume hat Icann genehmigt. Der letzte -.pro für Ärzte, Anwälte und Steuerberater - startet in den nächsten Wochen. Die erfolgreichste neue Top-Level-Domains (TLD) ist info mit mehr als einer Million registrierter Adressen. Doch nur 18 Prozent werden tatsächlich für Inhalte genutzt, sagt Tim Schumacher, Geschäftsführer der Plattform für Domainhandel Sedo: "Ein Großteil ist ungenutzt in den Händen von Spekulanten." 8000 Euro kostet etwa fonds.info. Über Zahlen kann man streiten. Der Verwalter der.info-Domeins Afilias spricht von weit mehr aktiven Seiten. Dennoch ist klar: Der allgemein zugängliche .info-Na-mensraum ist wohl deshalb so erfolgreich, weil Markeninhaber und Spekulanten sich auf die Adressen stürzten. Die einen vorbeugend, die anderen in der Hoffnung auf das große Geschäft. Exemplarisch ist der Streit zwischen Bundespresseamt und einer Duisburger Internet Agentur um bundesregierung.info. Grund für die Probleme: Es mangelt an Systematik im Namensraum. In den Vereinigten Staaten wissen die meisten Nutzer, dass unter whitehouse.net nicht Regierungsmitglieder gebrauchte Spionageflugzeuge verscherbeln, sondern Scherzbolde. Der echte Staatschef findet man unter der Endung.gov für Government (Regierung). International fehlt Vergleichbares; daher die Nöte des Bundespresseamts. Mehr als die Hälfte der weltweit registrierten Adressen liegt in globalen, allgemein offenen Namensräumen wie .com, .org oder.net. Der große Rest fällt in die Länder-Domeins wie de. Die neuen, nur für kleine Zielgruppen registrierbaren Nischenangebote sind bislang kein Erfolg. Was allerdings auch an der Auswahl liegen kann. So ist.coop Arbeitsgemeinschaften vorbehalten. Die Registrierzentrale freut sich über 7000 Anmeldungen-unter anderem von einer landwirtschaftlichen Kooperative aus der Mongolei. Eine Top Level Domain wie mobile für Mobilfunkunternehmen wäre erfolgreicher gewesen. Auch für den Namensbereich name malte sich die "Global Name Registry" mehr Interesse aus. Von etwa einer Million Kunden in 18 Monaten war die Rede. Derzeit sind es etwa 150000. Die Firma bleibt jedoch optimistisch: "Es gibt weltweit vielleicht 25 Millionen Unternehmen mit Interesse an Domainnamen, aber potenziell 600 Millionen Individuen", sagt Mitgründer Hakon Haugnes. Ein Beispiel für sinnvolle Lösungen ist der .aero-Namensraum. Dort gelten Benennungsstandards. Viele weltweit etablierte Codes für Fluggesellschaften führen zum Ziel; Ba.aero kann zum Beispiel nur British Airways registrieren. Derzeit diskutiert die Vergabezentrale eine Ausweitung der Regelung auf die standardisierten Flughafen-Codes und Flugnummern. Das Problem: Solche Vorgaben existieren nur selten a priori. Meist müssten sie mit dem Namensbereich geschaffen werden. Hier kritisiert der US-Rechtsprofessor Milton Mueller scharf die Organisation zur Verwaltung des Namensystems Icann: "Sie haben weder für die Einteilung, noch für die Aufteilung der Ressource Namensraum verbindliche Methoden definiert. Sie arbeiten als ein zentrales Planungsbüro im Sowjetstil und entscheiden nach absolut beliebigen Herangehensweisen auf Ad-hoc-Basis, welche Top Level Domains es gibt, wie sie verteilt werden, wer sie verwaltet." Icann wehrt sich mit der Begründung, sie dürfe als Selbstregulierungs-Organisation keine Politik betreiben.
Wenn man den lange geforderten Namensraum .xxx für Erwachsenenunterhaltung oder.kids für kindgerechte Angebote einrichte, müsse jemand definieren, was global als kindgerecht gilt. Allerdings hat Icann längst politische Entscheidungen getroffen. Etwa im März 2000, als man der palästinensischen Autonomiebehörde die Länder-Domain .ps zusprach. Auch anderswo betreibe Icann schon Politik, wirft Milton Mueller ein: "Die Entscheidungen spiegeln die Interessen von Markeninhabern wieder, die glauben, von einer künstlichen Knappheit im Namensraum zu profitieren." Der Hintergrund: Je weniger Domainarten es gibt, desto weniger Adressen müssen zum Schutz vor Spekulanten gekauft werden. Eine systematische Erweiterung des Namensraums könnte attraktiv für internationale Organisationen oder Firmen sein. Warum soll nicht BMW eine Top Level Domain erhalten, unter der nationale Unterorganisationen auftreten? Die Verknüpfung von Erweiterung und Systematisierung würde der Netzverwaltung mehr Gestaltungsmacht geben. Das aber will kaum ein Kritiker des heutigen Systems. Manche fordern gar beliebige Top Level Domains. Unternehmen wie das deutsche Beat-Nie oder das amerikanische New.net arbeiten daran: Sie errichten parallel zur offiziellen Infrastruktur alternative Namenssysteme. Doch die Nutzer müssen ihre Rechner umkonfigurieren, um die Angebote zu finden. Letztlich könnte das dazu führen, dass abhängig von der installierten Software unterschiedliche Seiten unter demselben Namen erscheinen. Fachleute bezeichnen die Endungen von Internetadressen als Top Level Domains. Die meisten werden für Länder vergeben (etwa .de für Deutschland), manche auch nach Themen und Zielgruppen: Diese generischen Top Level Domains sind: .aero Luftfahrtindustrie - .biz Kommerz - .com früher Kommerz, jetzt offen - .coop Genossenschaften - .edu US-Bildungseinrichtungen - .gov US-Regierung - .info Informationsdienste - .museum Museen - .mil US-Militär - .name Privatpersonen - .net früher Netzbetreiber, jetzt offen- .org früher Organisationen, offen - .pro "Professionals" - bestimmte Berufsgruppen."
-
Manning, C.D.; Schütze, H.: Foundations of statistical natural language processing (2000)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 2603) [ClassicSimilarity], result of:
0.023527222 = score(doc=2603,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 2603, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2603)
0.25 = coord(1/4)
- BK
- 18.00 (Einzelne Sprachen und Literaturen allgemein)
- Classification
- 18.00 (Einzelne Sprachen und Literaturen allgemein)
-
Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
0.023527222 = score(doc=3145,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 3145, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3145)
0.25 = coord(1/4)
- Source
- Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
-
Damasio, A.R.: Ich fühle, also bin ich : Die Entschlüsselung des Bewusstseins (2000)
0.01
0.0058818054 = product of:
0.023527222 = sum of:
0.023527222 = weight(_text_:und in 169) [ClassicSimilarity], result of:
0.023527222 = score(doc=169,freq=4.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20792803 = fieldWeight in 169, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=169)
0.25 = coord(1/4)
- Abstract
- Woher wissen wir, dass wir wissen? Wie entsteht das Gefühl für unser Selbst? Welche Rolle spielen Emotionen und Gefühle im Bewusstseinsprozess? In einer klaren, gut verständlichen Sprache beschreibt der weltweit berühmte Neurologe Antonio Damasio, warum wir fühlen, was wir sind. Zahlreiche Fallbeispiele aus seinem Patientenkreis veranschaulichen dabei, welch kuriose und schreckliche Folgen Schädigungen des Gehirns für unser Selbstverständnis haben können. Eine spannende Reise in die Tiefe unseres Bewusstseins.
-
Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001)
0.01
0.005747524 = product of:
0.022990096 = sum of:
0.022990096 = weight(_text_:und in 6729) [ClassicSimilarity], result of:
0.022990096 = score(doc=6729,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20318104 = fieldWeight in 6729, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=6729)
0.25 = coord(1/4)
- Abstract
- In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
-
Ziegler, G.M.: Kleine Fehler, große Fehler (2005)
0.01
0.005747524 = product of:
0.022990096 = sum of:
0.022990096 = weight(_text_:und in 5842) [ClassicSimilarity], result of:
0.022990096 = score(doc=5842,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20318104 = fieldWeight in 5842, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5842)
0.25 = coord(1/4)
- Content
- Pi auf 120 Stellen im Radio? Wunderbar! So schön klang Mathematik vielleicht noch nie. Trotzdem gibt's Kritik in den Feuilletons. So vermisste der Kritiker der Berliner Zeitung das Innovative. Das kann ich nicht verstehen. Hier ist Kritik von der anderen Seite: Wenn schon Pi, dann wenigstens richtig! Und Frau Bush macht den ersten Fehler in der vierundfünfzigsten Nachkommastelle (sie singt "three one" statt einer Null), dann gehts richtig weiter, bis sie plötzlich zweiundzwanzig Stellen auslässt ... Ist das egal? Ich glaube nein, das darf bei einer "complete infatuation with the calculation of Pi" nicht passieren. Wird sie den Fehler korrigieren? Vermutlich nicht. Sie wird das Album nicht zurückziehen und auch kein Erratum publizieren ... ... aber eine Kollegin von ihr zeigt sich einsichtiger: Ein britisches Popsternchen namens Katie Melua singt in "Nine Million Bicycles": We are 12 billion light years from the edge, that's a guess, no one can ever say it's true, but I'll always be with you. Das hat Simon Singh wütend gemacht. Ihn ärgert dabei nicht nur die falsche Zahl - das Universum ist ca. 13,7 Milliarden Jahre alt - sondern die Behauptung, das Alter sei nur geraten. Katie Melua ist dann wirklich ins Studio gegangen, und hat eine neue Version aufgenommen, We are 13.7 billion light years from the edge of the observable universe, that's a good estimate, with well defined error bars, and with the available information I predict that 1 will always be with you. Das ist natürlich genauer, aber hat einfach zu viele Silben. Simon Singh war trotzdem zufrieden, da wollen wir's auch sein ... ärgern uns nur noch kurz über Spiegel online, die eine super-rechthaberische Meldung dazu brachten, mit dem Titel Kuschelpopperin liegt um Lichtjahre daneben und sich ereiferten, die 21-Jährige habe das Alter des Universums auf zwölf Milliarden Lichtjahre "geschätzt".
Was vielleicht nicht Katie Melua, aber der Wissenschaftsredakteur von Spiegel online wissen sollte: Lichtjahre sind eine Entfernungsangabe. Und es geht auch nicht darum, dass sie um Lichtjahre danebenliegt, sondern eben um Milliarden Lichtjahre. Irgendjemand muss auch Spiegel online darauf hingewiesen haben, denn ein paar Stunden später war die Meldung korrigiert, "Kuschelpopperin liegt um Milliarden Jahre daneben", und man ereiferte sich nun, die 21-Jährige habe das Alter des Universums auf zwölf Milliarden Jahre "geschätzt" . . . Nachsatz. Auch der Stern weiß es nicht besser: In einem Bericht über die SPD-Linke Andrea Nahles vom 3. November: "Die große Koalition galt ihr als das schlimmste, was der SPD passieren könnte. Aber das war im Sommer. Im Wahlkampf. Gefühlte Lichtjahre her." Formeln im Alltag
Die Initiative "Pro Berlin" macht sich Sorgen über schulverweigernde Jugendliche: ((Bild)) Was wollen die uns damit sagen? Vielleicht "Formeln Knacken ist was Sinnvolles, Autos Knacken eher nicht"? Oder eher "Immerhin macht Sven was Sinnvolles, weil mit Auto-Knacken kann man Geld verdienen, mit Formel-Knacken ja nicht"? Ich weiß es nicht. Meine sportlichen Erfolge Ich prahle ja ungern mit meinen sportlichen Erfolgen - aber immerhin habe ich einem amtierenden Deutschen Meister im Tennis Mathe-Nachhilfe gegeben (Boris Becker war in dem Jahr zur deutschen Meisterschaft nicht angetreten - lange ist's her), und ein dreifacher Berliner Zehnkampf-Meister hat bei mir promoviert; ein Postdoc in meiner Arbeitsgruppe ist den Berlin-Marathon in 2:38:58 gelaufen. Warum sollen auch die Mathematiker nicht auch im Sport zeigen, was sie können? Immerhin hat's ein Mathematik-Leibnizpreisträger (2002) zur Taekwondo-Vizeweltmeisterschaft gebracht (Korea 1975, Federgewicht) -- bzw. in umgekehrter Reihenfolge. Lassen wir uns bei der Sportlichkeit gern von den Physikern die Butter vom Brot nehmen? Nein, ungern? Bei "Wer wird Millionär?" wurde am 10. Oktober nach einem Physiknobelpreisträger gefragt, der mehrfach in der Fussballnationalmannschaft gespielt hat: (A) Gustav Hertz, (B) Niels Bohr, (C) Pierre Curie, (D) Henri Becquerel?
Die richtige Antwort: Keiner von denen. Auch (B) war nicht richtig, auch wenn der Brockhaus von 2005 und Wikipedia das behaupteten. Die Verwechslung bezog sich auf einen Bruder von Niels Bohr, Harald Bohr, Mathematiker, der substanzielle Ergebnisse über die Riemannsche Zeta-Funktion vorzuweisen hat - und bei der Olympiade 1908 mit der dänischen Nationalmannschaft die Silbermedaille gewonnen hat (unter anderem Dänemark gegen Frankreich 17:1, ein Rekord!). Über seine mathematischen Leistungen verweise ich auf "The football player and the infinite series", Notices of the AMS (11) 44, 1997, 1430-1435. Ein kurioser Nebeneffekt: die Riemannsche Zeta-Funk-tion, mit einem typographisch einwandfreien Zeta, auf der Titelseite der Süddeutschen (im Streiflicht vom 14. Oktober). Das hatte ich mir eigentlich erst für den Tag erträumt, an dem die Meldung mit dem Beweis der Riemannschen Vermutung die Titelseiten erreicht ... Lotto im Regen "Pessimisten sagen, es gleiche einem Sechser im Lotto, den einzigen regenfreien Tag des Jahres auf den Orkney-Inseln zu erwischen." ... damit liegt die Reiseredaktion von Spiegel online doch um bemerkenswert viele Zehnerpotenzen daneben. Wer kann mehr? Lotto im Lied Im Lotto spielst du immer nur die Zahlen zwischen fünf und zehn Und als Zusatzzahl dein Lebensalter, denn als Lottospieler, sagst du; darf Man höchstens neunundvierzig Jahre alt sein, später wäre es schade um. das Geld aus dem aktuellen Album "Mittelpunkt der Welt" von Element of Crime."
-
Hähle, S.: Verborgenes Entdecken (2005)
0.01
0.005747524 = product of:
0.022990096 = sum of:
0.022990096 = weight(_text_:und in 159) [ClassicSimilarity], result of:
0.022990096 = score(doc=159,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20318104 = fieldWeight in 159, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=159)
0.25 = coord(1/4)
- Content
- "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
In anderen Ländern suchen Die Yahoo-Suche (http://suche.yahoo.de) verfügt über eine Möglichkeit, fremdsprachige Websites ohne Kenntnisse der Fremdsprache zu durchsuchen. Wenn die Option "Suche Translator" aktiviert ist, übersetzt Yahoo deutsche Suchbegriffe automatisch ins Englische und Französische, um die Suche mit den fremdsprachigen Begriffen zu erweitern. Anschließend zeigt es alle Ergebnisse in deutscher Sprache an. Übersetzte Seiten sind mit einem Globus gekennzeichnet. Lesezeichen online ordnen Ein praktisches Tool, um gesammelte Informationen im Web zu organisieren, ist Yahoo Mein Web. Dabei handelt es sich um eine kostenlose Online-Lesezeichenverwaltung, die mit allen aktuellen Browsern funktioniert. Ergebnisse der Yahoo-Suche können in Ordnern abgelegt und mit privaten Notizen versehen werden. Der Zugang zu den Bookmarks ist über die Yahoo-ID und das zugehörige Passwort geschützt. Da der Dienst Kopien der gemerkten Webseiten anlegt, sind diese auch dann erreichbar, wenn sie nicht mehr im Web existieren. Über eine Volltextsuche lassen sich alle Ordner durchsuchen. Mein Web finden Sie unter der Webadresse: http://meinweb.yahoo.de. MP3s im Web finden Musikdateien gibt's nicht nur in Internet-Tauschbörsen. Ganz legal kann man Sie bei Webdiensten wie AOL Musik Downloads (http://mu sikdownloads.aol.de), Apple iTunes (www. appie.com/de/itunes) oder T-Online Musicload (www.musicload.de) herunterladen -allerdings nicht kostenlos. Insider nutzen noch eine andere Variante: Wenn Anwender ihre MP3s online-Sicherheitsvorkehrungen im Web ablegen, schlagen sie zu. Mit Google lassen sich die Musikdateien sehr schnell aufspüren. Dazu geben die Experten "index of /mp3" ins Suchfeld ein. Die Suchanfrage lässt sich um Künstler, Liedtitel oder Album ergänzen, um noch bessere Ergebnisse zu erzielen. Bedenken Sie dabei, dass es verboten ist, urheberrechtlich geschütztes Material aus dem Internet herunterzuladen!
Private Bilder aufspüren Wo ungeschützte Musikverzeichnisse liegen, gibt es auch Bildarchive, auf die eigentlich niemand zugreifen soll. Doch Google hilft dabei. Wer beispielsweise "index of /images/girls" eingibt, findet so manche Privatsachen. Die Kombination von "index of /images/" mit anderen Begriffen fördert noch mehr geheime Bilder zu Tage. Zwar bietet heute fast jede Suchmaschine eine Bildersuche an, doch es gibt eine, die sehr schnell ist und besonders viele Ergebnisse liefert: www.alltheweb.com. Über "customize preferences" auf der Startseite können Sie den "Offensive content filter" abschalten, um noch mehr Suchergebnisse zu erhalten. Gesperrte Seiten anzeigen Die Betreiber von Websites können Suchmaschinen dazu bringen, bestimmte Seiten ganz einfach von der Indizierung auszunehmen. In der Datei "robots.txt", die zu jeder Website gehört, steht dann "Disallow:", gefolgt von der Seite, die nicht gefunden werden soll. Mit der Suchanfrage robots ext:txt suchen Profis nach "robots.txt"-Dateien. Dann kopieren sie die Webadressen gesperrter Webseiten ("Strg + C"), um sie in die Adresszeile des Browsers einzufügen ("Strg + V"). Und schon erscheint die Webseite, die niemand finden soll. Geheimnisse entdecken Wer Word- und Excel-Dokumente (".doc", ".xls") oder PowerPoint-Präsentationen (".ppt") ungeschützt ins Internet legt, der ermöglicht jedermann den Diebstahl der Daten. Dass dieser mit Google ganz einfach ist, überrascht dennoch. So genügen Eingaben wie ext:doc vertraulich ext:ppt confidential [Suchbegriff] ext:xls umsatz um interessante Firmendokumente aufzuspüren, die nicht für die Öffentlichkeit bestimmt sind. Suchen ohne Suchmaschinen Nicht immer sind Suchmaschinen die beste Möglichkeit, um Informationen im Web aufzuspüren. Suchen Sie etwa eine Begriffserklärung, ist es sinnvoll, erst einmal in einem Online-Lexikon wie Wikipedia (www.wikipedia.de) nachzuschlagen oder bei www.wissen.de nachzusehen. Wollen Sie wissen, ob ein Zug oder ein Flug pünktlich ankommt, weil Sie jemanden abholen müssen, sehen Sie unter http://reiseauskunft.bahn.de/bin/bhftafel.exe/ dn? oder www.flugplandaten.de nach. Übrigens: Eine gepflegte Link-Sammlung ist meistens besser, als ständig aufs Neue zu suchen. Und oftmals genügt es, einen Begriff als Webadresse auszuprobieren, um an die gewünschten Informationen zu kommen, etwa: www.fahrplanauskunft.de, www.nachrichten.de oder www.sport.de."
-
Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004)
0.01
0.005747524 = product of:
0.022990096 = sum of:
0.022990096 = weight(_text_:und in 2445) [ClassicSimilarity], result of:
0.022990096 = score(doc=2445,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.20318104 = fieldWeight in 2445, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2445)
0.25 = coord(1/4)
- Abstract
- Herrn Klaus Schmeh ist es nun mit diesem Buch in hervorragender Weise geglückt, die interessantesten Aspekte der Kryptologie in ebenso verständlicher wie fesselnder Weise darzustellen. In den ersten beiden Teilen des Buches wird ein Bogen gespannt, der von der Verschlüsselung im amerikanischen Bürgerkrieg bis hin zum Codebrechen im Kalten Krieg reicht. Natürlich darf eine spannende Behandlung des Brechens der berühmten Enigma nicht fehlen. Auch weniger bekannte Begebenheiten, wie die Erfolge der deutschen Codebrecher im Zweiten Weltkrieg oder Kryptologie in der DDR, werden in interessanter Weise dargestellt. Im nächsten Teil des Buches gelingt Herrn Schmeh das Meisterstück, die überaus spannende Geschichte der modernen Datensicherheit seit den siebziger Jahren bildhaft und sehr interessant ohne theoretische Überlast darzustellen. Die Themen sind hier ebenso vielfältig wie die Bedeutung der Verschlüsselung in unserem täglichen Leben geworden ist: Von der Entstehungsgeschichte der bekanntesten Verschlüsselungssoftware PGP über das deutsche Signaturgesetz bis hin zur Quantenkryptographie, die schon in einigen Jahren einsatzbereit sein kann, werden hier zahlreiche Themen in fesselnder Weise aufbereitet. Besonders gefällt mir, dass neben der historischen Bedeutung von (oft zu schwachen) Codes auch der technische Hintergrund ohne mathematischen Ballast beschrieben wird. Alles in allem ein Buch, welches einen nicht mehr loslässt und das ich vom Laien bis zum Datensicherheitsexperten jedem empfehlen kann!
- Footnote
- Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
Besonders interessant ist dabei die potenzielle Unsicherheit der Hash-Funktion MD5, die aus den Arbeiten des Bochumer Kryptologen Hans Dobbertin folgt, denn kurz nach Erscheinen des Buches wurde MD5 tatsächlich gebrochen. Das Buch bietet nicht nur spannende Geschichten, sondern hat auch einen didaktischen Anspruch. Wichtige Begriffe werden am Ende eines Kapitels noch einmal kurz dargestellt, Randnotizen erlauben dem flüchtigen Leser einen raschen Wiedereinstieg. Ein Anhang bietet weitere Anregungen und zeigt einige noch ungelöste Fragen der Kryptografiegeschichte. Die schönsten der zahlreichen Bilder sind am Ende noch einmal in Farbe wiedergegeben. Das Werk sei also auch vorinformierten Lesern wärmstens empfohlen. Wer vorab eine Leseprobe genießen möchte, findet sie unter http://wwwheise.de/tp/deutsch/inhalt/buch/17995/1.html und unter http://www.heise.de/tp/deutsch/ inhalt/co/ 18371 / 1.html einen Artikel über einen Zeitzeugen des deutschen Dechiffrierwesens im Zweiten Weltkrieg, der sich auf Grund des Buchs beim Autor gemeldet hat."
-
Rechtspolitisches Positionspapier des Deutschen Bibliotheksverbandes zum Referentenentwurf für ein Zweites Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft (2004)
0.01
0.0055454196 = product of:
0.022181679 = sum of:
0.022181679 = weight(_text_:und in 6969) [ClassicSimilarity], result of:
0.022181679 = score(doc=6969,freq=2.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.19603643 = fieldWeight in 6969, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6969)
0.25 = coord(1/4)
- Abstract
- Der vorliegende Richtlinienvorschlag beinhaltet mehrere Normenvorschläge, die für die Bibliotheksarbeit im Dienste für Bildung und Wissenschaft nachhaltige Folgen haben wird. Dazu zählen folgende Neuregelungen - unbekannte Nutzungsarten (§ 31 a ff), - Beibehaltung der Befristung zu § 52 a (§ 137 k), - Kopienversand auf Einzelbestellung (§ 53 a), - Nichtdurchsetzbarkeit der Privatkopie (§ 53 Abs. 1 i.V.m. § 95 b Abs. 2), - Wiedergabe von Werken an elektronischen Leseplätzen in öffentlichen Bibliotheken (§ 52 b).
-
Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001)
0.01
0.0055454196 = product of:
0.022181679 = sum of:
0.022181679 = weight(_text_:und in 7071) [ClassicSimilarity], result of:
0.022181679 = score(doc=7071,freq=2.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.19603643 = fieldWeight in 7071, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=7071)
0.25 = coord(1/4)
- Footnote
- 2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
-
Nie wieder nachschlagen? : Hexaglot Blitz Translator (2000)
0.01
0.0055454196 = product of:
0.022181679 = sum of:
0.022181679 = weight(_text_:und in 7441) [ClassicSimilarity], result of:
0.022181679 = score(doc=7441,freq=2.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.19603643 = fieldWeight in 7441, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=7441)
0.25 = coord(1/4)
- Abstract
- Noch leidet die komplette Übersetzungs-Software an diversen Kinderkrankheiten. Doch reichen schon einzelne Fragmente einer Fremdsprache aus, um einen Text verstehen zu können, ohne viel Zeit in dicken Wörterbüchern aufzuwenden. Voraussetzung dafür ist, dass man einerseits vom bedruckten Papier Abstand nimmt und seine Texte vom Bildschirm liest, and andererseits die Verwendung des Hexaglot Blitztranslators
-
Wikipedia gegen die Etablierten (2007)
0.01
0.0055454196 = product of:
0.022181679 = sum of:
0.022181679 = weight(_text_:und in 2602) [ClassicSimilarity], result of:
0.022181679 = score(doc=2602,freq=2.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.19603643 = fieldWeight in 2602, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2602)
0.25 = coord(1/4)
- Abstract
- Die deutsche Wikipedia weiß auf fast jede Frage eine Antwort. Aber kann man sich auf die auch immer verlassen? Wir haben im Brockhaus, bei Bertelsmann, in der Encarta und in der freien Internet-Enzyklopädie quer durch alle Wissensgebiete nachgeschlagen, um auch auf diese Frage eine Antwort zu finden.
-
Habermas, J.: ¬Die analytische Sprachphilosophie nimmt Hegel in Besitz : "Expressive Vernunft": Robert Brandoms Weg von Wittgenstein über Kant zu Hegel (2000)
0.01
0.0055454196 = product of:
0.022181679 = sum of:
0.022181679 = weight(_text_:und in 6479) [ClassicSimilarity], result of:
0.022181679 = score(doc=6479,freq=2.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.19603643 = fieldWeight in 6479, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6479)
0.25 = coord(1/4)
- Abstract
- Der amerikanische Philosoph Robert Bradom, der Hegel, den 'kontinetalsten' aller europäischen Denker, in die angelsächsische Tradition der analytischen Philosophie zu integrieren sucht, galt hierzulande öange als Geheimtipp. Jetzt ist sein Hauptwerk 'Making it explicit' auf Deutsch erschienen ("Expressive Vernunft: Begründung, Repräsentation und diskursive Festlegung". Jürgen Habermas erklärt, warum Brandom auch diesseits des Atlantiks von Bedeutung ist