Search (13160 results, page 607 of 658)

  1. Sander-Beuermann, W.: Generationswechsel bei MetaGer : ein Rückblick und Ausblick (2019) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 993) [ClassicSimilarity], result of:
          0.025114987 = score(doc=993,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 993, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=993)
      0.25 = coord(1/4)
    
    Issue
    Teil 1: Von ersten Internet-Pionieren bis zu Meta-Suchmaschinen [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=633&wysijap=subscriptions&user_id=1045]. Teil 2: Was weiter gelten muss: Freier Wissenszugang, Privatsphäre und Schutz vor Datenkraken! [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=635&wysijap=subscriptions&user_id=1045]
  2. Lorenz, D.: Occupy Publishing! : Wie veröffentlichen wir in Zukunft? (2012) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.025114987 = score(doc=596,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 596, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=596)
      0.25 = coord(1/4)
    
    Abstract
    "Über 1000 Mathematikerinnen und Mathematiker aus aller Welt erklären öffentlich ihren Boykott des Elsevier-Verlages auf der Webseite http://thecostofknowledge.com, und unter dem gleichen Namen veröffentlichen 34 namhafte Mathematiker einen offenen Brief, in dem sie in klarer Sprache den Verlag kritisieren (siehe auch die deutsche Übersetzung des offenen Briefes ab Seite 16 dieses Heftes): "What all the signatories do agree on is that Elsevier is an exemplar of everything that is wrong with the current system of commercial publication of mathematics journals, and we will no longer acquiesce to Elsevier's harvesting of the value of our and our colleagues' work." Wie konnte es dazu kommen? Die Geschichte beginnt wahrscheinlich schon dent Ende der 90er Jahre von Rob Kirby, doch mit Hilfe des Web 2.0 hat vor langer Zeit, zuminmit einem offenen Brief sie in den vergangenen Monaten erstaunlich an Fahrt gewonnen. Der Beitrag bietet eine kurze Chronologie der Ereignisse."
  3. Michel, A.: Informationsdidaktik für verschiedene Wissenskulturen (2020) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 735) [ClassicSimilarity], result of:
          0.025114987 = score(doc=735,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 735, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=735)
      0.25 = coord(1/4)
    
    Abstract
    In den vergangenen Monaten sind in Password Online eine ganze Reihe von Beiträgen erschienen, die sich mit dem Thema Informationskompetenz auseinandergesetzt haben. Sie alle hatten einen unterschiedlichen Fokus, es einte sie jedoch eine eher kritische Perspektive auf ein universelles Kompetenzset, aus dem sich "Informationskompetenz" ergibt. Spannend ist insbesondere im Kontext des aktuellen, lebhaften Diskurses zu Fake News, dass einige Autor*innen explizit soziale und emotionale Faktoren als relevante Kriterien für den Umgang mit Information betonen. (Mit diesem Text und dem sich anschließenden Beitrag von Inka Tappenbeck möchten wir auf die "wissenskulturelle Praxis" als einen weiteren Faktor genauer eingehen, der prägt, was in unterschiedlichen Kontexten als Informationskompetenz zu verstehen ist).
  4. Tappenbeck, I.: Zum Transfer der wissenskulturellen Perspektive in die bibliothekarische Praxis : Angebote zur Vermittlung vom Fach her entwickeln (2020) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1020) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1020,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1020, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1020)
      0.25 = coord(1/4)
    
    Abstract
    Antje Michel hat in der letzten Ausgabe von Open Password die Bedeutung der wissenskulturellen Perspektive für das Verständnis von Informationskompetenz begründet. In diesen Beitrag geht es nun darum, wie diese Perspektive in die Praxis einbezogen werden kann. Doch bevor näher auf dieses "Wie" eingegangen wird, zunächst einmal zwei Klärungen zum "Ob überhaupt". Dabei beziehe ich mich auf die Beiträge innerhalb und außerhalb dieser Reihe, die dies eher kritisch sehen. Erstens frage ich, ob Informationskompetenz überhaupt vermittelt werden /kann,/ und zweitens, ob sie überhaupt vermittelt werden /soll/.
  5. Mahn, J.: Wenn Maschinen philosophieren - wo bleibt da der Mensch? (2020) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1047,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1047)
      0.25 = coord(1/4)
    
    Abstract
    Der KI-Textgenerator GPT-3 kann erstaunlich selbstreflektierte philosophische Texte verfassen. Überholt die Maschine uns Menschen in unserer Paradedisziplin? GPT-3 heißt die jüngste Entwicklung des Unternehmens OpenAI. Es ist die dritte Generation eines Textgenerators und die Ergebnisse sind teilweise so gut, dass sie von menschlichen Texten fast nicht mehr zu unterscheiden sind. Während der Testphase wurde GPT-3 schon mit allerlei Aufgaben betraut. Für großes Aufsehen sorgte der Philosoph Raphaël Millière bei Twitter. Er beauftrage GPT-3, eine Antwort auf eine philosophische Abhandlung zu verfassen, die im Philosophie-Blog Daily Nous erschienen war. GPT-3 musste sich also zu Philosophie und zu seiner eigenen Rolle äußern.
  6. Neudecker, C.: Zur Kuratierung digitalisierter Dokumente mit Künstlicher Intelligenz : das Qurator-Projekt (2020) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1048) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1048,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1048, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1048)
      0.25 = coord(1/4)
    
    Abstract
    Die Digitalisierung des kulturellen Erbes in Bibliotheken, Archiven und Museen hat in den letzten Jahrzehnten eine rasant zunehmende Verfügbarkeit kultureller Inhalte im Web bewirkt - so hat die Staatsbibliothek zu Berlin - Preußischer Kulturbesitz (SBB-PK) rund 170.000 Werke (Bücher, Zeitschriften, Zeitungen, Karten, Notenschriften etc.) aus ihrem reichhaltigen Bestand digitalisiert und über ein eigenes Online-Portal bereitgestellt (Stand Mai 2020). Noch deutlicher wird die immense Menge der durch die Digitalisierung entstandenen digitalen Kulturobjekte beim Blick auf die von Aggregatoren gebildeten Sammlungen - so beinhaltet die Deutsche Digitale Bibliothek etwa 33 Millionen Nachweise für Digitalisate aus Kultureinrichtungen (Stand Mai 2020), die europäische digitale Bibliothek Europeana weist knapp 60 Millionen digitalisierte Kulturobjekte nach (Stand Mai 2020).
  7. Dijk, J: ¬The digital divide (2020) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1069) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1069,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1069, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1069)
      0.25 = coord(1/4)
    
    Classification
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
    RVK
    MS 6950: Allgemeines (Wissenschaft und Gesellschaft, Informationsgesellschaft) / Soziologie / Spezielle Soziologien
  8. Griesbaum, J.; Çetta, D.: What is information literacy and how to improve it? (2021) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1202) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1202,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1202, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1202)
      0.25 = coord(1/4)
    
    Abstract
    Im Vortrag wurden zunächst Entwicklungstendenzen im Bereich der Informationskompetenz, wie sie in der Literatur diskutiert werden, thematisiert. Dabei wurden insbesondere die folgenden Aspekte angeführt: die zunehmende Breite des Konzepts "Informationskompetenz" - dessen Überlappung mit anderen Kompetenzen sowie zentrale Problemfelder wie zunehmend komplexer werdende Informationsmärkte, Herausforderung der Informationsbewertung sowie der Bestätigungsfehler. Nachfolgend wurden der Kontext und das Design der Studie vorgestellt. Im Rahmen des "Calls für Positionspapiere" wurden Experte*innen dazu aufgerufen nachfolgende Fragen zu beantworten: - Was ist Informationskompetenz? - Wie soll man Informationskompetenz vermitteln? - Welches sind die zentralen Entwicklungen im Bereich der Informationskompetenz und Informationskompetenzvermittlung? - Welche weiteren Aspekte des Themas sind relevant?
  9. Kainz, M.: Globale Vernetzung - globale Identität? : Kulturelle Identitätskonstruktionen im Zeitalter digitaler Technologien (2018) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1344) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1344,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1344)
      0.25 = coord(1/4)
    
    Abstract
    Die fortschreitende Nutzung digitaler Kommunikationstechnologien nicht nur in der industrialisierten Welt, sondern zunehmend auch in Ländern des globalen Südens, erfordert eine Neuorientierung in der Betrachtungsweise dessen, was den Menschen als Individuum und soziales Wesen ausmacht. Das vorliegende Buch möchte zu dieser Neubestimmung der Identität des Menschen in einer globalisierten Welt einen Beitrag leisten. Der Fokus liegt dabei auf jenen Aspekten der globalen Vernetzung, die grundlegende Veränderungen von Identiätskonstruktionen des Einzelnen nach sich ziehen. Im Zentrum stehen neue Formen der Identitätsgestaltung durch digitale Technologien sowie die Neudefinition kultureller Dimensionen wie jener des Raumes oder Veränderungen zeitlicher, aber auch gesellschaftlicher Strukturen. Um nicht eine ausschließlich ,westlich' orientierte, eurozentrische Perspektive einzunehmen, bildet einer der Schwerpunkte der vorliegenden Forschungsarbeit die Analyse der Nutzung digitaler Kommunikationstechnologien in Westafrika, wo der zahlenmäßige Anstieg von Nutzern des Mobiltelefons und sozialer Netzwerke in den letzten Jahren alle Prognosen von Experten übertraf.
  10. Ledl, A.: Qualität in der Inhaltserschließung : ein Überblick aus 50 Jahren (1970-2020) (2021) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1363) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1363,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1363, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1363)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag sollen Aspekte des Diskurses eines halben Jahrhunderts über die Qualität von Sacherschließung im deutschsprachigen Raum anhand ausgewählter Publikationen skizziert werden. Einschlusskriterium bei der Selektion der Texte war, dass der Begriff Qualität unmittelbar auf Inhalts- bzw. Sacherschließung bezogen ist, also nicht zwischen den Zeilen herausgelesen werden muss. Der subjektive Abriss erhebt keinen Anspruch auf Vollständigkeit. Als erstes fällt auf, dass das Thema Qualität der Inhaltserschließung in den 1970er Jahren weit weniger häufig diskutiert wird als in den Jahrzehnten danach. Dies ist dem Umstand geschuldet, dass sich seit dem Zweiten Weltkrieg in punkto Sacherschließung nur wenig getan hat. Die Bibliotheken kooperieren nicht untereinander und nehmen bei der Inhaltserschließung vor allem ihre eigenen Bestände in den Blick -Qualität ist daher höchstens ein internes Thema. Was qualitätvoll sein muss, ist der universelle Bestand an sich.
    Series
    Bibliotheks- und Informationspraxis; 70
  11. Lewandowski, D.: Suchmaschinen (2023) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1794) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1794,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1794, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1794)
      0.25 = coord(1/4)
    
    Abstract
    Eine Suchmaschine (auch: Web-Suchmaschine, Universalsuchmaschine) ist ein Computersystem, das Inhalte aus dem World Wide Web (WWW) mittels Crawling erfasst und über eine Benutzerschnittstelle durchsuchbar macht, wobei die Ergebnisse in einer nach systemseitig angenommener Relevanz geordneten Darstellung aufgeführt werden. Dies bedeutet, dass Suchmaschinen im Gegensatz zu anderen Informationssystemen nicht auf einem klar abgegrenzten Datenbestand aufbauen, sondern diesen aus den verstreut vorliegenden Dokumenten des WWW zusammenstellen. Dieser Datenbestand wird über eine Benutzerschnittstelle zugänglich gemacht, die so gestaltet ist, dass die Suchmaschine von Laien problemlos genutzt werden kann. Die zu einer Suchanfrage ausgegebenen Treffer werden so sortiert, dass den Nutzenden die aus Systemsicht relevantesten Dokumente zuerst angezeigt werden. Dabei handelt es sich um komplexe Bewertungsverfahren, denen zahlreiche Annahmen über die Relevanz von Dokumenten in Bezug auf Suchanfragen zugrunde liegen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Herb, U.: Verfahren der wissenschaftlichen Qualitäts-/ Relevanzsicherung / Evaluierung (2023) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 1795) [ClassicSimilarity], result of:
          0.025114987 = score(doc=1795,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 1795, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1795)
      0.25 = coord(1/4)
    
    Abstract
    Traditionell erfolgt die Qualitätssicherung wissenschaftlicher Publikationen (ex ante, vor der Publikation) durch die als Peer Review bezeichnete Expertenbegutachtung. Die vormals vor allem in Journalen im STM-Bereich (Science, Technology, Medicine) verbreitete Peer Review findet immer stärkere Verbreitung und entwickelte sich zu einem Standardverfahren der Qualitätssicherung wissenschaftlicher Texte. Swanson & McCloskey beschreiben Peer Review als Prozess, der Expert*innen zur Bewertung eines Manuskripts einsetzt. Diese werden meist durch die Publikationsverantwortlichen (meist Journal-Herausgeber*innen) bestimmt. Die letztliche Entscheidung über die Annahme der Einreichung zur Publikation (ggf. unter Überarbeitungsauflagen) liegt jedoch bei diesen Publikationsverantwortlichen, die den einreichenden Autor*innen auch Gründe für die eventuelle Ablehnung ihres Textes mitteilen. Laut des Diskussionspapiers Peer Review and the Acceptance of new scientific Ideas dient diese der Bewertung von "competence, significance and originality, by qualified experts who research and submit work for publication in the same field (peers)"
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  13. Ryle, G.: ¬Der Begriff des Geistes (2015) 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 2048) [ClassicSimilarity], result of:
          0.025114987 = score(doc=2048,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 2048, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2048)
      0.25 = coord(1/4)
    
    Abstract
    Ryles >Begriff des Geistes< von 1949 ist eines der klassischen Werke der analytischen Philosophie und hat ein umfassendes Programm: »Die philosophischen Überlegungen, aus denen dieses Buch besteht, sollen unsere Kenntnisse vom Geist oder der Seele nicht vermehren, sondern die logische Geographie dieses Wissens berichtigen«, so Ryle selbstbewusst in der Einleitung zu seinem Hauptwerk.
    Issue
    Aus dem Englischen übersetzt von Kurt Baier ; die deutsche Übersetzung wurde von Günther Patzig und Ulrich Steinvorth überarbeitet.
  14. Lohnt sich der DEAL? 0.01
    0.0062787468 = product of:
      0.025114987 = sum of:
        0.025114987 = weight(_text_:und in 2067) [ClassicSimilarity], result of:
          0.025114987 = score(doc=2067,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20792803 = fieldWeight in 2067, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2067)
      0.25 = coord(1/4)
    
    Content
    " DASS DAS keine normalen Verhandlungen waren, konnte man bereits an der Pressemitteilung erkennen, die am Mittwochvormittag von der Pressestelle der Hochschulrektorenkonferenz (HRK) verschickt wurde. Überschrift: "The DEAL Consortium and Elsevier Announce Transformative Open Access Agreement for Germany". Deutsche Übersetzung: Fehlanzeige. So wie auch der gesamte Meldungstext und die beigefügten Statements rein englischsprachig waren. Weil die HRK, Konsortialführer von DEAL, nichts mehr von Wissenschaftskommunikation auf Deutsch hält? Wohl kaum. Die tatsächliche Erklärung dürfte darin bestehen, dass nach sieben Jahren Verhandlungs-Drama, Teile davon auf offener Bühne, die Erleichterung über den abgeschlossenen Open-Access-Transformationsvertrag zwar groß war und die Stimmung unter den neuen Partnern gut. Aber nicht so gut, dass die HRK sich eine eigenständige Übersetzung der mit Elsevier sicherlich bis ins Detail verhandelten Pressemitteilung erlauben zu können glaubte. Eine Abstimmung aber hätte wiederum ein derart komplexes Räderwerk erneut in Bewegung gesetzt, das nicht zu dem Zeitdruck passte, raus zu wollen mit der Agreement-Nachricht. ... "
  15. Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001) 0.01
    0.006135403 = product of:
      0.024541613 = sum of:
        0.024541613 = weight(_text_:und in 6729) [ClassicSimilarity], result of:
          0.024541613 = score(doc=6729,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20318104 = fieldWeight in 6729, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=6729)
      0.25 = coord(1/4)
    
    Abstract
    In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
    Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
    Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
  16. Höhn, S.: Stalins Badezimmer in Wikipedia : Die Macher der Internet-Enzyklopädie diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück. (2012) 0.01
    0.006135403 = product of:
      0.024541613 = sum of:
        0.024541613 = weight(_text_:und in 3171) [ClassicSimilarity], result of:
          0.024541613 = score(doc=3171,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20318104 = fieldWeight in 3171, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3171)
      0.25 = coord(1/4)
    
    Abstract
    An diesem Donnerstag beginnt in Berlin eine internationale Konferenz der Wikimedia Foundation, Betreiberin der Internet-Enzyklopädie Wikipedia. Die Macher diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück.
    Content
    "Sie galt international als die renommierteste Enzyklopädie, man nannte sie auch die Königin unter den Nachschlagewerken. Seit 1768 enthielt die Encyclopaedia Britannica das gesammelte Wissen der Menschheit, zuletzt waren es 33 000 Seiten in 32 Bänden. Doch nun ist Schluss. Vor zwei Wochen gab der Verlag mit Sitz in Chicago bekannt: Die Encyclopaedia Britannica wird es in gedruckter Form nicht mehr geben. Nach 244 Jahren geht eine Ära zu Ende. Schon im Jahr 2008 hatte der Brockhaus, das deutsche Pendant des englischsprachigen Nachschlagewerks, vor dem Internet kapituliert. Unter dem Eindruck dieser Nachricht beginnt an diesem Donnerstag in Berlin eine internationale Konferenz der Wikimedia Foundation, Betreiberin der Internet-Enzyklopädie Wikipedia. Aus aller Welt kommen Autoren der Plattform für drei Tage in einem Wilmersdorfer Konferenzzentrum zusammen. Auch der Mitbegründer von Wikipedia, der Amerikaner Jimmy Wales, wird dabei sein. Es geht um alltägliche Probleme der Community, um technische Feinheiten, aber auch um Strategien und die Frage: Wie geht es weiter mit der Enzyklopädie? Die Wikipedianer wissen, dass Ihnen eine immer größere Verantwortung zukommt. Denn den Hauptgrund für das Ende der altehrwürdigen Standardwerke liefert zweifellos Wikipedia. Das kostenlose, immer und überall frei zugängliche Online-Lexikon hat sie aus Sicht vieler Nutzer obsolet gemacht. "Die Verantwortung ist schon gewaltig", sagt Pavel Richter, Chef von Wikimedia Deutschland. "Aber wir werden ihr gerecht, denn wir sind enorm offen und transparent. Jeder kann sehen, was in der Wikipedia passiert, jeder kann mitmachen."
    Anfänglich belächelt, immer wieder kritisiert vor allem für Fehleranfälligkeiten, ist das Vertrauen in die Wikipedia mittlerweile deutlich gewachsen. Dennoch stellt sich die Frage: Kann die Online-Wissenssammlung, zusammengestellt zum großen Teil von Freiwilligen, bei denen es nicht auf formales Expertentum ankommt, die Nachfolge von Brockhaus und Co. antreten? Findet hier nicht ein massiver Paradigmenwechsel statt? Die Zeit der Aufklärung "Wenn man sich die Geschichte der Encyclopaedia Britannica anschaut, wird man sehen, dass sie in der Zeit der Aufklärung einen ähnlichen Anfang hatte", sagt Karsten Weber, Professor für Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. "Ziel war es, Leute die sich auskannten, zu möglichst vielen Wissensgebieten schreiben zu lassen. Da ging es um Kenntnisse, nicht um den Doktortitel." Erst später, sagt Weber, seien die Lexika professionalisiert worden. Wikipedia sei eine Rückbesinnung auf die Wurzeln. Auf eine Zeit also, in der das Wissen dem exklusiven Zugriff der Obrigkeit entzogen wurde. "Wikipedia ermöglicht heute eine völlig neue und partizipative Form des Lernens ohne die Interpretationsmacht irgendwelcher Institutionen", sagt Peter Pawlowsky, Professor für Wirtschaftswissenschaften an der TU Chemnitz. Pawlowsky sitzt im Beirat des "Leonardo European Corporate Learning Award". Der Preis ging 2011 an Jimmy Wales. Am Rande der Berliner Konferenz wird er morgen an den Wikipedia-Gründer übergeben. Dem Leonardo-Beirat ging es bei der Vergabe vor allem um die Auswirkungen von Wikipedia auf den Zugang von Wissen innerhalb von Unternehmen. Immer mehr Firmen nutzen die Plattform für die Erstellung interner Wikis.
    Basisdemokratisches Wissen "Es gibt ein neues Verständnis von innerbetrieblichem Lernen", sagt Pawlowsky. "Durch Wikipedia wird es basisdemokratischer, jeder Beteiligte hat mit seiner Perspektive eine Stimme." Das sei auch nötig, denn nur so könne die zunehmende Komplexität der Wirklichkeit bewältigt werden. Wikipedia, so liest sich die Diktion der Preisinitiatoren, ist nicht nur demokratisch, sie dient auch der Effizienzsteigerung. Falsche Einträge in Wikipedia haben in der Vergangenheit dennoch für Aufsehen gesorgt. Vergangenes Jahr etwa offenbarte ein Autor der Berliner Zeitung, den Eintrag über die Friedrichshainer Karl-Marx-Allee zwei Jahre zuvor gefälscht zu haben, um Wikipedia zu testen. Zu DDR-Zeiten, hatte er dort geschrieben, sei die Straße "Stalins Badezimmer" genannt worden. Der Fantasiebegriff blieb nicht nur zwei Jahre in der Wikipedia, er wurde auch von anderen Medien übernommen. Einige Kritiker fühlten sich damals bestätigt: Der Wikipedia sei nicht zu trauen. "Wie jedes offene System kann auch Wikipedia missbraucht werden", sagt Pavel Richter. "Da sind wir als Community gefordert, dass so etwas entdeckt und rückgängig gemacht wird." Der Nutzer müsse sich darüber im Klaren sein, dass er sich nicht allein auf Wikipedia verlassen kann. "Man sollte nie nur einer Quelle vertrauen", sagt Richter. Karsten Weber sieht das ähnlich: "Es gibt in der Wikipedia eine ganze Menge Mist. Aber machen wir uns keine Illusionen. Das gilt auch für die Wissenschaft." Zudem hätten mehrere Studien herausgefunden, dass die Fehlerquote bei Wikipedia kaum höher sei als etwa beim Brockhaus.
    Footnote
    Die Druckausgabe war teuer Die Wikipedia ist ein kostenloses Online-Lexikon, an dem jeder als Autor mitwirken kann. Die Plattform wurde 2001 gegründet. Sie existiert in 280 Sprachen. Die englische Version enthält fast vier Millionen Artikel, die deutsche etwa 1,4 Millionen. Weltweit haben sich schon weit über eine Million Nutzer beteiligt. Der Brockhaus galt lange Zeit als das wichtigste deutsche Nachschlagewerk. 1796 erschien ein Vorläufer der ersten Auflage. 2008 wurde entschieden, die rund 2800 Euro teure Druckausgabe einzustellen. Die Nachfrage war zu stark eingebrochen. Spätestens 2015 soll es nun doch ein Comeback geben. Die Encyclopaedia Britannica gilt als Produkt der schottischen Aufklärung. Ihre aktuelle Auflage kostet rund 1500 Euro. Zuletzt wurden nur noch 8000 Exemplare verkauft. 1990 waren es noch 120.000. Die Encyclopaedia wird es künftig nur noch online geben, zu einem Abo-Preis von 70 Euro pro Jahr. Zu den Themen, die die Wikipedianer in Berlin diskutieren, gehört vor allem die noch sehr einseitige demografische Durchmischung der Autoren. Vor allem Frauen sind mit einem Anteil von nur neun Prozent stark unterrepräsentiert - weltweit. Laut Pavel Richter ist der typische Autor männlich, gut gebildet und zwischen 20 und 30 Jahren alt. "Wir haben uns für dieses Jahr vorgenommen, zu untersuchen woran es liegt, dass Frauen sich kaum beteiligen", sagt er. Eine erste Vermutung sei die stark männlich geprägte Diskussionskultur. Auch Senioren und Menschen mit Migrationshintergrund gibt es unter den Autoren kaum. Die Wikimedia Foundation plant deshalb Projekte zum Beispiel in Seniorenbildungseinrichtungen.
  17. Ziegler, G.M.: Kleine Fehler, große Fehler (2005) 0.01
    0.006135403 = product of:
      0.024541613 = sum of:
        0.024541613 = weight(_text_:und in 5842) [ClassicSimilarity], result of:
          0.024541613 = score(doc=5842,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20318104 = fieldWeight in 5842, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5842)
      0.25 = coord(1/4)
    
    Content
    Pi auf 120 Stellen im Radio? Wunderbar! So schön klang Mathematik vielleicht noch nie. Trotzdem gibt's Kritik in den Feuilletons. So vermisste der Kritiker der Berliner Zeitung das Innovative. Das kann ich nicht verstehen. Hier ist Kritik von der anderen Seite: Wenn schon Pi, dann wenigstens richtig! Und Frau Bush macht den ersten Fehler in der vierundfünfzigsten Nachkommastelle (sie singt "three one" statt einer Null), dann gehts richtig weiter, bis sie plötzlich zweiundzwanzig Stellen auslässt ... Ist das egal? Ich glaube nein, das darf bei einer "complete infatuation with the calculation of Pi" nicht passieren. Wird sie den Fehler korrigieren? Vermutlich nicht. Sie wird das Album nicht zurückziehen und auch kein Erratum publizieren ... ... aber eine Kollegin von ihr zeigt sich einsichtiger: Ein britisches Popsternchen namens Katie Melua singt in "Nine Million Bicycles": We are 12 billion light years from the edge, that's a guess, no one can ever say it's true, but I'll always be with you. Das hat Simon Singh wütend gemacht. Ihn ärgert dabei nicht nur die falsche Zahl - das Universum ist ca. 13,7 Milliarden Jahre alt - sondern die Behauptung, das Alter sei nur geraten. Katie Melua ist dann wirklich ins Studio gegangen, und hat eine neue Version aufgenommen, We are 13.7 billion light years from the edge of the observable universe, that's a good estimate, with well defined error bars, and with the available information I predict that 1 will always be with you. Das ist natürlich genauer, aber hat einfach zu viele Silben. Simon Singh war trotzdem zufrieden, da wollen wir's auch sein ... ärgern uns nur noch kurz über Spiegel online, die eine super-rechthaberische Meldung dazu brachten, mit dem Titel Kuschelpopperin liegt um Lichtjahre daneben und sich ereiferten, die 21-Jährige habe das Alter des Universums auf zwölf Milliarden Lichtjahre "geschätzt".
    Was vielleicht nicht Katie Melua, aber der Wissenschaftsredakteur von Spiegel online wissen sollte: Lichtjahre sind eine Entfernungsangabe. Und es geht auch nicht darum, dass sie um Lichtjahre danebenliegt, sondern eben um Milliarden Lichtjahre. Irgendjemand muss auch Spiegel online darauf hingewiesen haben, denn ein paar Stunden später war die Meldung korrigiert, "Kuschelpopperin liegt um Milliarden Jahre daneben", und man ereiferte sich nun, die 21-Jährige habe das Alter des Universums auf zwölf Milliarden Jahre "geschätzt" . . . Nachsatz. Auch der Stern weiß es nicht besser: In einem Bericht über die SPD-Linke Andrea Nahles vom 3. November: "Die große Koalition galt ihr als das schlimmste, was der SPD passieren könnte. Aber das war im Sommer. Im Wahlkampf. Gefühlte Lichtjahre her." Formeln im Alltag
    Die Initiative "Pro Berlin" macht sich Sorgen über schulverweigernde Jugendliche: ((Bild)) Was wollen die uns damit sagen? Vielleicht "Formeln Knacken ist was Sinnvolles, Autos Knacken eher nicht"? Oder eher "Immerhin macht Sven was Sinnvolles, weil mit Auto-Knacken kann man Geld verdienen, mit Formel-Knacken ja nicht"? Ich weiß es nicht. Meine sportlichen Erfolge Ich prahle ja ungern mit meinen sportlichen Erfolgen - aber immerhin habe ich einem amtierenden Deutschen Meister im Tennis Mathe-Nachhilfe gegeben (Boris Becker war in dem Jahr zur deutschen Meisterschaft nicht angetreten - lange ist's her), und ein dreifacher Berliner Zehnkampf-Meister hat bei mir promoviert; ein Postdoc in meiner Arbeitsgruppe ist den Berlin-Marathon in 2:38:58 gelaufen. Warum sollen auch die Mathematiker nicht auch im Sport zeigen, was sie können? Immerhin hat's ein Mathematik-Leibnizpreisträger (2002) zur Taekwondo-Vizeweltmeisterschaft gebracht (Korea 1975, Federgewicht) -- bzw. in umgekehrter Reihenfolge. Lassen wir uns bei der Sportlichkeit gern von den Physikern die Butter vom Brot nehmen? Nein, ungern? Bei "Wer wird Millionär?" wurde am 10. Oktober nach einem Physiknobelpreisträger gefragt, der mehrfach in der Fussballnationalmannschaft gespielt hat: (A) Gustav Hertz, (B) Niels Bohr, (C) Pierre Curie, (D) Henri Becquerel?
    Die richtige Antwort: Keiner von denen. Auch (B) war nicht richtig, auch wenn der Brockhaus von 2005 und Wikipedia das behaupteten. Die Verwechslung bezog sich auf einen Bruder von Niels Bohr, Harald Bohr, Mathematiker, der substanzielle Ergebnisse über die Riemannsche Zeta-Funktion vorzuweisen hat - und bei der Olympiade 1908 mit der dänischen Nationalmannschaft die Silbermedaille gewonnen hat (unter anderem Dänemark gegen Frankreich 17:1, ein Rekord!). Über seine mathematischen Leistungen verweise ich auf "The football player and the infinite series", Notices of the AMS (11) 44, 1997, 1430-1435. Ein kurioser Nebeneffekt: die Riemannsche Zeta-Funk-tion, mit einem typographisch einwandfreien Zeta, auf der Titelseite der Süddeutschen (im Streiflicht vom 14. Oktober). Das hatte ich mir eigentlich erst für den Tag erträumt, an dem die Meldung mit dem Beweis der Riemannschen Vermutung die Titelseiten erreicht ... Lotto im Regen "Pessimisten sagen, es gleiche einem Sechser im Lotto, den einzigen regenfreien Tag des Jahres auf den Orkney-Inseln zu erwischen." ... damit liegt die Reiseredaktion von Spiegel online doch um bemerkenswert viele Zehnerpotenzen daneben. Wer kann mehr? Lotto im Lied Im Lotto spielst du immer nur die Zahlen zwischen fünf und zehn Und als Zusatzzahl dein Lebensalter, denn als Lottospieler, sagst du; darf Man höchstens neunundvierzig Jahre alt sein, später wäre es schade um. das Geld aus dem aktuellen Album "Mittelpunkt der Welt" von Element of Crime."
  18. Hähle, S.: Verborgenes Entdecken (2005) 0.01
    0.006135403 = product of:
      0.024541613 = sum of:
        0.024541613 = weight(_text_:und in 159) [ClassicSimilarity], result of:
          0.024541613 = score(doc=159,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20318104 = fieldWeight in 159, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=159)
      0.25 = coord(1/4)
    
    Content
    "Oft hört man: "Suchen im Web - das kann doch jeder." Doch immer wieder erreichen uns Zuschriften, in denen uns Leser ihr Leid darüber klagen, dass sie im Datendschungel des Internets nicht die Informationen erhielten, die sie eigentlich interessieren würden. Wenn es Ihnen auch so geht, helfen ihnen hoffentlich die folgenden Tipps und Tricks. Wie Suchmaschinen denken Die meisten Suchmaschinen bestehen aus drei Teilen. Der erste ist der Informationssammler, Robot, Spider oder auch Crawler genannt. Er surft automatisch auf Webseiten und schickt die gesammelten Daten an den Index. Dieser ist das Verzeichnis aller Webseiten, die die Suchmaschine kennt. Der zweite Teil ist die Indizierungs-Software, die die Daten strukturiert und durchsuchbar macht. Eine dritte Software wertet die Suchanfrage aus. Sie schickt die Anfrage an den Index-Rechner, der die Ergebnisse präsentiert. Hierbei berücksichtigt sie meist auch, an welcher Stelle der Suchbegriff im Dokument steht. Wenn das Suchwort in der Beschreibung der Webseite vorkommt, wird es höher gewichtet, als wenn es im Text der Seite steht. Eine Besonderheit ist das PageRank-System von Google. Je mehr Links auf eine Seite verweisen, umso wichtiger ist sie. Je wichtiger wiederum die verweisenden Seiten sind, umso größer der positive Effekt für ein Suchergebnis. Suchanfragen richtig stellen Es macht wenig Sinn, nach einem häufigen Begriff wie "Musik" zu suchen. Sie müssen schon genauer angeben, nach was Sie suchen, etwa "achtziger Jahre" oder "MP3 Download". Überlegen Sie außerdem, welche Begriffe Sie von der Suche explizit ausschließen können. Eine Suche sollte dennoch nicht mit zu vielen verknüpften Begriffen beginnen. Ein schrittweises Eingrenzen bietet sich an. Oft ist es auch hilfreich, die Wörter leicht zu variieren. Spezielle Suchdienste Wenn Sie wissen, in welchem Fachgebiet Sie Information suchen, sollten Sie eine Spezial-Suchmaschine probieren. Die Portalseite Klug Suchen (www.klug-suchende) und das Suchlexikon (www.suchlexikon.de) verzeichnen eine große Menge besonderer Suchdienste für das deutschsprachige Internet. Weitere Spezialisten, vor allem im amerikanischen Raum, listet The Big Hub (www.thebighub.com) auf. Metasuchmaschinen Metasuchmaschinen suchen in mehreren Suchmaschinen auf einmal, um mehr oder gezieltere Ergebnisse zu erhalten. Ob sich der Einsatz lohnt, müssen Sie von Fall zu Fall entscheiden. Die bekanntesten Metasuchmaschinen für das deutschsprachige Netz sind Metacrawler (www.metacrawler.de) sowie MetaGer (www.metager.de).
    In anderen Ländern suchen Die Yahoo-Suche (http://suche.yahoo.de) verfügt über eine Möglichkeit, fremdsprachige Websites ohne Kenntnisse der Fremdsprache zu durchsuchen. Wenn die Option "Suche Translator" aktiviert ist, übersetzt Yahoo deutsche Suchbegriffe automatisch ins Englische und Französische, um die Suche mit den fremdsprachigen Begriffen zu erweitern. Anschließend zeigt es alle Ergebnisse in deutscher Sprache an. Übersetzte Seiten sind mit einem Globus gekennzeichnet. Lesezeichen online ordnen Ein praktisches Tool, um gesammelte Informationen im Web zu organisieren, ist Yahoo Mein Web. Dabei handelt es sich um eine kostenlose Online-Lesezeichenverwaltung, die mit allen aktuellen Browsern funktioniert. Ergebnisse der Yahoo-Suche können in Ordnern abgelegt und mit privaten Notizen versehen werden. Der Zugang zu den Bookmarks ist über die Yahoo-ID und das zugehörige Passwort geschützt. Da der Dienst Kopien der gemerkten Webseiten anlegt, sind diese auch dann erreichbar, wenn sie nicht mehr im Web existieren. Über eine Volltextsuche lassen sich alle Ordner durchsuchen. Mein Web finden Sie unter der Webadresse: http://meinweb.yahoo.de. MP3s im Web finden Musikdateien gibt's nicht nur in Internet-Tauschbörsen. Ganz legal kann man Sie bei Webdiensten wie AOL Musik Downloads (http://mu sikdownloads.aol.de), Apple iTunes (www. appie.com/de/itunes) oder T-Online Musicload (www.musicload.de) herunterladen -allerdings nicht kostenlos. Insider nutzen noch eine andere Variante: Wenn Anwender ihre MP3s online-Sicherheitsvorkehrungen im Web ablegen, schlagen sie zu. Mit Google lassen sich die Musikdateien sehr schnell aufspüren. Dazu geben die Experten "index of /mp3" ins Suchfeld ein. Die Suchanfrage lässt sich um Künstler, Liedtitel oder Album ergänzen, um noch bessere Ergebnisse zu erzielen. Bedenken Sie dabei, dass es verboten ist, urheberrechtlich geschütztes Material aus dem Internet herunterzuladen!
    Private Bilder aufspüren Wo ungeschützte Musikverzeichnisse liegen, gibt es auch Bildarchive, auf die eigentlich niemand zugreifen soll. Doch Google hilft dabei. Wer beispielsweise "index of /images/girls" eingibt, findet so manche Privatsachen. Die Kombination von "index of /images/" mit anderen Begriffen fördert noch mehr geheime Bilder zu Tage. Zwar bietet heute fast jede Suchmaschine eine Bildersuche an, doch es gibt eine, die sehr schnell ist und besonders viele Ergebnisse liefert: www.alltheweb.com. Über "customize preferences" auf der Startseite können Sie den "Offensive content filter" abschalten, um noch mehr Suchergebnisse zu erhalten. Gesperrte Seiten anzeigen Die Betreiber von Websites können Suchmaschinen dazu bringen, bestimmte Seiten ganz einfach von der Indizierung auszunehmen. In der Datei "robots.txt", die zu jeder Website gehört, steht dann "Disallow:", gefolgt von der Seite, die nicht gefunden werden soll. Mit der Suchanfrage robots ext:txt suchen Profis nach "robots.txt"-Dateien. Dann kopieren sie die Webadressen gesperrter Webseiten ("Strg + C"), um sie in die Adresszeile des Browsers einzufügen ("Strg + V"). Und schon erscheint die Webseite, die niemand finden soll. Geheimnisse entdecken Wer Word- und Excel-Dokumente (".doc", ".xls") oder PowerPoint-Präsentationen (".ppt") ungeschützt ins Internet legt, der ermöglicht jedermann den Diebstahl der Daten. Dass dieser mit Google ganz einfach ist, überrascht dennoch. So genügen Eingaben wie ext:doc vertraulich ext:ppt confidential [Suchbegriff] ext:xls umsatz um interessante Firmendokumente aufzuspüren, die nicht für die Öffentlichkeit bestimmt sind. Suchen ohne Suchmaschinen Nicht immer sind Suchmaschinen die beste Möglichkeit, um Informationen im Web aufzuspüren. Suchen Sie etwa eine Begriffserklärung, ist es sinnvoll, erst einmal in einem Online-Lexikon wie Wikipedia (www.wikipedia.de) nachzuschlagen oder bei www.wissen.de nachzusehen. Wollen Sie wissen, ob ein Zug oder ein Flug pünktlich ankommt, weil Sie jemanden abholen müssen, sehen Sie unter http://reiseauskunft.bahn.de/bin/bhftafel.exe/ dn? oder www.flugplandaten.de nach. Übrigens: Eine gepflegte Link-Sammlung ist meistens besser, als ständig aufs Neue zu suchen. Und oftmals genügt es, einen Begriff als Webadresse auszuprobieren, um an die gewünschten Informationen zu kommen, etwa: www.fahrplanauskunft.de, www.nachrichten.de oder www.sport.de."
  19. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.01
    0.006135403 = product of:
      0.024541613 = sum of:
        0.024541613 = weight(_text_:und in 2445) [ClassicSimilarity], result of:
          0.024541613 = score(doc=2445,freq=22.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.20318104 = fieldWeight in 2445, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2445)
      0.25 = coord(1/4)
    
    Abstract
    Herrn Klaus Schmeh ist es nun mit diesem Buch in hervorragender Weise geglückt, die interessantesten Aspekte der Kryptologie in ebenso verständlicher wie fesselnder Weise darzustellen. In den ersten beiden Teilen des Buches wird ein Bogen gespannt, der von der Verschlüsselung im amerikanischen Bürgerkrieg bis hin zum Codebrechen im Kalten Krieg reicht. Natürlich darf eine spannende Behandlung des Brechens der berühmten Enigma nicht fehlen. Auch weniger bekannte Begebenheiten, wie die Erfolge der deutschen Codebrecher im Zweiten Weltkrieg oder Kryptologie in der DDR, werden in interessanter Weise dargestellt. Im nächsten Teil des Buches gelingt Herrn Schmeh das Meisterstück, die überaus spannende Geschichte der modernen Datensicherheit seit den siebziger Jahren bildhaft und sehr interessant ohne theoretische Überlast darzustellen. Die Themen sind hier ebenso vielfältig wie die Bedeutung der Verschlüsselung in unserem täglichen Leben geworden ist: Von der Entstehungsgeschichte der bekanntesten Verschlüsselungssoftware PGP über das deutsche Signaturgesetz bis hin zur Quantenkryptographie, die schon in einigen Jahren einsatzbereit sein kann, werden hier zahlreiche Themen in fesselnder Weise aufbereitet. Besonders gefällt mir, dass neben der historischen Bedeutung von (oft zu schwachen) Codes auch der technische Hintergrund ohne mathematischen Ballast beschrieben wird. Alles in allem ein Buch, welches einen nicht mehr loslässt und das ich vom Laien bis zum Datensicherheitsexperten jedem empfehlen kann!
    Footnote
    Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
    Besonders interessant ist dabei die potenzielle Unsicherheit der Hash-Funktion MD5, die aus den Arbeiten des Bochumer Kryptologen Hans Dobbertin folgt, denn kurz nach Erscheinen des Buches wurde MD5 tatsächlich gebrochen. Das Buch bietet nicht nur spannende Geschichten, sondern hat auch einen didaktischen Anspruch. Wichtige Begriffe werden am Ende eines Kapitels noch einmal kurz dargestellt, Randnotizen erlauben dem flüchtigen Leser einen raschen Wiedereinstieg. Ein Anhang bietet weitere Anregungen und zeigt einige noch ungelöste Fragen der Kryptografiegeschichte. Die schönsten der zahlreichen Bilder sind am Ende noch einmal in Farbe wiedergegeben. Das Werk sei also auch vorinformierten Lesern wärmstens empfohlen. Wer vorab eine Leseprobe genießen möchte, findet sie unter http://wwwheise.de/tp/deutsch/inhalt/buch/17995/1.html und unter http://www.heise.de/tp/deutsch/ inhalt/co/ 18371 / 1.html einen Artikel über einen Zeitzeugen des deutschen Dechiffrierwesens im Zweiten Weltkrieg, der sich auf Grund des Buchs beim Autor gemeldet hat."
  20. Aitchison, J.; Gilchrist, A.; Bawden, D.: Thesaurus construction and use : a practical manual (1997) 0.01
    0.005919659 = product of:
      0.023678636 = sum of:
        0.023678636 = weight(_text_:und in 254) [ClassicSimilarity], result of:
          0.023678636 = score(doc=254,freq=2.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.19603643 = fieldWeight in 254, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=254)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus

Authors

Languages

Types

  • a 9322
  • m 2218
  • el 1003
  • x 591
  • s 553
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 22
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications