Search (11762 results, page 559 of 589)

  • × language_ss:"d"
  1. Becker, A: Neue Suchmaschinen für Fortgeschrittene : Neue Such-Angebote: Die fünf Top-Newcomer im Überblick (2000) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2526) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2526,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2526, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2526)
      0.25 = coord(1/4)
    
    Abstract
    Die Hierarchie schien klar: Erst kommt die Suchmaschine Google - und dann lange nichts. Doch 5 Newcomer greifen jetzt den Marktführer an. Ihr Ziel heißt: Finden statt Suchen. - Mit 2 Abbildungen, u.a. einem Marktüberblick aus 02'2003
    Content
    Kart00.com - Anstatt seine Resultate traditionell als Liste darzustellen, zeichnet der Meta-Sucher eine Ergebniskarte. Vorteil: Die bildliche Darstellung sorgtfür einen überzeugenden Themenüberblick. Teoma.com - Die Maschine fahndet mit drei unterschiedlichen Methoden: via Volltextsuche, über Expertenseiten und mithilfe von Schlagwörtern. Vorteil: Durch die innovative 3D-Suche erzielt Teoma bei speziellen Recherchen beachtliche Ergebnisse. Wondir.com - Zu jeder Anfrage gibt es bei Wondir Antworten auf fünf Ebenen. Von einer Trefferliste bis hin zu einem Experten-MailKontakt. Vorteil: ideal für komplizierte und wissenschaftliche Themen. Turb10.com - Der neue britische Meta-Crawler durchforstet gleichzeitig sowohl das normale als auch das Deep Web. Vorteil: Dank Turb10.com muss niemand mehr für Deep-Web-Recherchen auf spezielle Zusatzprogramme zurückgreifen. Hotbot.com - Der Ex-Volitextdienst setzt jetzt auf Service. Über seine Startseite lassen sich vier Top-Dienste (u.a. Google, FAST) abfragen. Vorteil: Hotbot bietet vier Spitzenangebote auf einen Klick.
  2. ¬Die "Sieben Kammern des Wissens" (2003) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2949) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2949,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2949, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2949)
      0.25 = coord(1/4)
    
    Content
    "Der Meister des Wissens "Brock Lee" begleitet die Spieler durch die Fragen, die es in den sieben Kammern, darunter die Kammer der Erde, des Lesens oder des Hörens, zu entdecken gilt. Wird eine Frage falsch beantwortet, hilft der Weise dem Irrenden mit einem Hinweis, der ihn auf die richtige Spur lenken soll. Erst nach der richtigen Beantwortung aller sieben Fragen ist die Teilnahme an der Verlosung möglich, oder der Spieler kann ein neues Spiel beginnen. Zu gewinnen gibt es jeden Monat Preise vom Kalender "Was so nicht im Lexikon steht" über die Rechtschreibkorrektursoftware "Duden Korrektor" bis zur Warhol-Ausgabe des "Brockhaus in 15 Bänden". Die neue Version des "Brockhaus multimedial 2004" ist vor wenigen Wochen mit zahlreichen neuen Features in den Handel gekommen. Das Multimedia-Lexikon bietet 240.000 Artikel mit 315.000 Stichwörtern, darunter 120.000 Wörterbucheinträge. Insgesamt enthält die Premiumversion nun 17 Millionen Wörter. Neu sind neben einem Atlas mit rund zwei Millionen Karteneinträgen und einem einzigartigen Höhenmodell auch ein Englisch-Wörterbuch mit 120.000 Einträgen und ein Bereich mit Grundlagenwissen für die wichtigsten Schulfächer. Hinzugekommen sind bei der neuen Version wieder neue Videos sowie rund 1.500 neue Bilder und 1.000 neue redaktionell ausgewählte Web-Links. Der "Brockhaus multimedial 2004 premium" auf sechs CDs oder einer DVD kostet 99,95 Euro, der Preis für den "Brockhaus multimedial 2004" auf vier CDs oder einer DVD beläuft sich auf 49,95 Euro."
  3. dpa: Wikipedia.de ist vorerst außer Betrieb : Streit um Namensnennung führte zu einstweiliger Verfügung gegen Internet-Adresse (2006) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 3101) [ClassicSimilarity], result of:
          0.025109591 = score(doc=3101,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 3101, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3101)
      0.25 = coord(1/4)
    
    Content
    "Zum fünften Geburtstag hätten sich die Gründer der freien Online-Enzyklopädie Wikipedia sicherlich bessere Nachrichten gewünscht. Statt in dieser Woche zu feiern, ging die deutsche Internet-Adresse jetzt wegen eines Streits um die Namensnennung des verstorbenen Hackers "Tron" vorerst offline. Es sei ihnen per einstweiliger Verfügung untersagt worden, bis auf weiteres von der Adresse Wikipedia.de auf die deutschsprachige Fassung zu verlinken, teilt der Verein Wikimedia Deutschland gestern mit. Unter der Internet-Adresse Wikipedia.org ist die Enzyklopädie allerdings weiterhin in deutscher Sprache erreichbar. Die einstweilige Verfügung des Amtsgerichts BerlinCharlottenburg vom 17. Januar ist nach Angaben eines englischsprachigen Wikipedia-Eintrags von der Familie des unter ungeklärten Umständen zu Tode gekommenen Hackers "Tron" erwirkt worden. Der bürgerliche Name des Hackers soll nach dem Willen der Familie nicht mehr genannt werden. Wegen des laufenden Verfahrens nennt Wikipedia Deutschland selbst keine Gründe und gibt keine weitere Stellungnahme dazu ab. "Tron" war im Oktober 1998 in einem Berliner Park erhängt aufgefunden worden. Nach Angaben der Ermittlungsbehördenhat der Hacker Selbstmord begangen. Die offizielle Todesursache wurde jedoch vielfach bezweifelt. Der unter anderem auf Sprachverschlüsselung und das Entschlüsseln etwa von Fernsehsignalen spezialisierte "Hacker" sei vielmehr Mordopfer des Geheimdienstes oder der organisierten Kriminalität geworden, vermutet unter anderem der Chaos Computer Club. Wikipedia wurde am 15. Januar 2001 von dem US-Unternehmer Jimmy Wales und dem Philosophie-Dozent Larry Sangen gegründet. Unter Mithilfe aller Internet-Nutzer sollte die größte Wissenssammlung der Welt entstehen. Heute gibt es Wikipedia in mehr als hundert Sprachen. Allein die deutschsprachige Version umfasst weit mehr als 300 000 Artikel, die englischsprachige 850 000."
  4. Kostenlos surfen mit Google : Spekulationen über W-LAN-Netz in den USA (2005) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4228) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4228,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4228, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4228)
      0.25 = coord(1/4)
    
    Content
    "Will Google Amerika mit einem Netz aus W-LAN-Notspots überziehen und auf diesem Weg zu einem eigenständigem InternetService-Provider (ISP) werden? Diese schon länger kolportierte Spekulation meint das US-amerikanische Wirtschafts-Magazin "Business 2.0" nun belegen zu können: Google kaufe seit einem Jahr in aller Ruhe brachliegende Übertragungskabel von anderen Zugangs-Anbietern. Sobald die Infrastruktur stehe, so das Gerücht, werde Google in Großstädten flächendeckend einen Internet-Zugang via Funk anbieten. Das Magazin hat das Angebot GoogIeNET getauft. Ortsbezogene Werbung Der eigentliche Clou am möglichen GoogIeNET: Es könnte kostenlos nutzbar sein - oder zumindest nur ein symbolisches Eintrittsgeld zum Internet verlangen. Google wird nämlichbeim Funk-Surfen wahrscheinlich Werbung einblenden, die auf den Aufenthaltsort des Users abgestimmt ist. Würde jemand in einem Einkaufszentrum den Service nutzen, so der Gedanke, erhielte er in den Google-Ads Hinweise zu den Sonderangeboten der einzelnen Läden. Die Technik im Hintergrund soll dabei Feeva, eine auf Notspots spezialisierte Firma aus San Francisco liefern. Eine Partnerschaft zwischen der Suchmaschine und Feeva existiert schon. In San Francisco schalteten die Funkspezialisten einen kostenlosen Hotspot in einem Shopping-Bezirk - und der wird von Google gesponsert. Die gekauften Übertragungskabel wären für Google auch in anderer Hinsicht hilfreich: Die Suchmaschine müsste Service Provider nicht mehr für den verursachten Traffic bezahlen, sondern könnte die Daten über die eigenen Leitungen versenden."
  5. Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4490) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4490,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4490, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4490)
      0.25 = coord(1/4)
    
    Abstract
    Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
  6. Arns, C.: Fallstricke Online : Über die eigenen Worte gestolpert (2005) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4502) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4502,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4502, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4502)
      0.25 = coord(1/4)
    
    Abstract
    Ein Klick ins kleine Kreuz oben rechts und schon schließt sich die Seite. Doch wie so oft bleibt eine Anzeige auf dem Schirm zurück: Sie empfiehlt, schleunigst in eine private Krankenversicherung zu wechseln. Günstigere Tarife, besserer Service - lauter schöne Dinge. Wer tatsächlich wechseln möchte, der hat erst einmal eine Menge Fragen zu beantworten, denn gegen Krankheit sollen in erster Linie kerngesunde Menschen privat versichert werden. Mit einer chronischen Krankheit beispielsweise ist das nicht einfach: »Vermutlich wirst du nur unter großen Schwierigkeiten eine private Krankenversicherung finden, die dich aufnimmt«, schreibt Klaust in einem Online-Forum der Betroffenen. Und selbst wenn eine zu finden sei, berichtet er weiter, dann »wird das mit einem erheblichen Risikozuschlag einhergehen«. Die Verlockung ist groß, die umfangreichen Fragebögen nicht ganz richtig auszufüllen. Passende Gelegenheit: neuer Job in neuer Stadt, neuer Arzt, neue Versicherung. Denn bei vielen Krankheiten kann niemand sicher sagen, ob sie schon vorher festgestellt und behandelt wurden. Doch genau das sind die Fälle, in denen Versicherungen hellhörig werden. »Wenn wir Hinweise darauf haben, dass der Kunde die Versicherungsfragen unwahr beantwortet hat, dann gehen wir dem nach«, bestätigt Christian Heinrich von der Deutschen Krankenversicherung. Zunächst werde beim Kunden noch einmal genau nachgefragt, ob er vielleicht etwas vergessen habe, dann beim Arzt, wenn möglich auch bei früheren Ärzten. Parallel dazu kann der Kunde auch mal gegoogelt werden, so DKV-Referent Heinrich: »Unsere Mitarbeiter nutzen bei der Recherche natürlich auch die Möglichkeiten des Internet.«
  7. Lüttcher, B.; Zendel, O.: ¬Eine kurze Geschichte Freier Software : Interview mit Oliver Zendel (2005) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4503) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4503,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4503, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4503)
      0.25 = coord(1/4)
    
    Abstract
    Ihren Anfang nahm die Entwicklung Freier Software im Jahr 1984: Damals wurde das GNU-Projekt von Richard Stallman ins Leben gerufen. Sein Ziel war es, ein zu UNIX kompatibles, jedoch nicht identisches freies Betriebssystem zu schaffen. Darauf weist der Name GNU, entstanden aus dem rekursiven Akronym »GNU is not Unix«, bereits hin. Die ebenfalls von ihm gegründete Free Software Foundation (FSF) beschäftigte sich zunächst vornehmlich mit den rechtlichen und organisatorischen Aspekten des GNU-Projektes, wurde aber rasch zur Vertretungsinstanz für Freie Software im Allgemeinen. Somit kann die FSF durchaus als erste und bis heute wichtigste Nichtregierungsorganisation zu diesem Thema gesehen werden. So wurde unter anderem dort die GNU General Public License (GPL) entwickelt, die bis heute die am häufigsten benutzte freie Lizenz ist. Der anfänglich von Linus Torvald entwickelte freie Betriebssystemkern Linux und die unter Stallmanns Regie entwickelten GNU-Tools bilden zusammen GNU/Linux, das heute erfolgreichste Freie-Software-Sys tem weltweit. Es sei jedoch ausdrücklich darauf hingewiesen, dass Linux zwar Freie Software ist, es sich bei Freier Software jedoch nicht zwangsläufig um Linux handelt. Erwähnt sei hier das an der Berkeley Universität (San Francisco) entwickelte BSD, das eine freie Alternative zum GNU/Linux-Betriebssystem darstellt.
  8. Holoch, K.; Kuhl, D.: "Nicht zu vergleichen (2005) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4672) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4672,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4672, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4672)
      0.25 = coord(1/4)
    
    Content
    "Frage: Ist Wikipedia eine Konkurrenz für Brockhaus? Holoch: Absolut nicht. Diese beiden Dinge sind überhaupt nicht zu vergleichen. Der große Unterschied ist die Qualität. Bei Brockhaus verkaufen wir zigfach geprüftes und verbrieftes Wissen, bei Wikipedia findet man, wie das Bildungsportal "bildungsklick.de" herausfand, eine Million Rechtschreibfehler! Das ist schon ein Hammer. Frage: Sind Auswahl und Behandlung der Wörter ähnlich? Holoch: Also bei uns hat die Länge der Erklärungen eine wichtige Aussagekraft. Adenauer wird bei uns immer einen größeren Platz einnehmen als beispielsweise Lafontaine. Frage: Nehmen Sie Anregungen von Lesern an? Holoch: Auf jeden Fall prüfen wir sie gerne. Frage: Wie steht Brockhaus zum Internet? Holoch: Wir stellen uns dem Internet. Gerade haben wir für 20 Millionen Euro die 21. Ausgabe der Enzyklopädie produziert. Jeder, der sie kauft, bekommt einen kostenlosen Online-Zugang zu Brockhaus. Und dort werden aktuelle Geschehnisse direkt mit aufgenommen. Wenn wir also ab Herbst eine Bundeskanzlerin haben, steht das sofort drin. Frage: Hat Wikipedia andere Kunden als Brockhaus? Holoch: Ich denke, die meisten Internet-Nutzer arbeiten mit mehreren Medien: Am Computer schaut man schnell mal etwas nach, aber die verlässlichen Informationen gibt der Brockhaus."
  9. Abel, G.; Dreßler, B.; Herb, U.; Müller, M.: Verzahnung von Jahresbibliographie und Institutional Repository der Universität des Saarlandes (2006) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 101) [ClassicSimilarity], result of:
          0.025109591 = score(doc=101,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 101, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=101)
      0.25 = coord(1/4)
    
    Abstract
    Hintergrund Seit 1993 bietet die Saarländische Universitäts- und Landesbibliothek (SULB) den Angehörigen der Universität des Saarlandes (UdS) die Möglichkeit, wissenschaftliche Publikationen in einer Online-Jahresbibliographie zu verzeichnen. Schon seit dem Jahr 1968 existierte eine gedruckte Fassung der Jahresbibliographie, die Veröffentlichungen der Angehörigen der Universität des Saarlandes, seit 1973 auch die der anderen Hochschulen des Saarlandes, verzeichnete. Als Printausgabe erschien sie zuletzt im Jahr 2000. Die alte Online-Version beinhaltet die Titel ab dem Berichtsjahr 1993 sowie Nachträge aus früheren Jahren. Mit Beginn des Jahres 2006 wurde bei der SULB als Betreiberin der Jahresbibliographie ein deutlicher Schnitt gemacht: Das bewährte alte, auf hierarchischer HTML-Navigation basierende System, das in den Jahren 1993 bis 2005 zirka 100.000 Titelmeldungen aufnahm, wurde durch ein flexibleres, datenbankgestütztes System ersetzt, das es in Zukunft erleichtern wird, die Jahresbibliographie als Instrument der Evaluierung heranzuziehen. Seit November 2000 bietet die SULB den Wissenschaftlern der UdS auch die Möglichkeit, wissenschaftliche Publikationen als Volltext entgeltfrei auf dem Institutional Repository SciDok Open Access konform zur Verfügung zu stellen. SciDok und auch PsyDok, das Disciplinary Repository der SULB für die Psychologie-Community, werden mit der an der Universität Stuttgart entwickelten Software OPUS betrieben. Seit Januar 2006 wird nun auch die Jahresbibliographie der UdS mit OPUS betrieben.
  10. Welsch, N.: Multimedia-Entwicklungen mit Macromedia Director (1997) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2533) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2533,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2533, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2533)
      0.25 = coord(1/4)
    
    Classification
    ST 280 Informatik / Monographien / Software und -entwicklung / Benutzerschnittstellen
    Footnote
    1. Auflage u.d.T.: Welsch, Norbert: Entwicklung von Multimedia-Projekten mit Macromedia Director und Lingo 3. Auflage u.d.T.: Welsch, Norbert: Macromedia Director für Durchstarter
    RVK
    ST 280 Informatik / Monographien / Software und -entwicklung / Benutzerschnittstellen
  11. Lexikon der Datenkommunikation : [traditionelle Techniken: Ethernet, Token Ring; Highspeed Networking: Gigabit Ethernet, ATM, LAN-Switching; Trends: Virtual LAN, VPN, xDSL-Techniken] (1999) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2636) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2636,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2636, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2636)
      0.25 = coord(1/4)
    
    Abstract
    Ob Newcomer oder Experte: für den DV-Profi, der bei zunehmender Spezialisierung nicht den Überblick verlieren will, ist dieses Buch zu ein nützliches und wertvollens Nachschlagewerk bei der täglichen Arbeit. Ausführliche und detailgenau Begriffserklärungen finden sich u. a. zu folgenden zentralen Themen der Datenkommunikation: - die klassischen Netze: Ethernet, Token Ring, FDD - Highspeed Networking: Fast Ethernet, 100 VGAnyLAN, Frame Relay, Segment Switching, Asynchronous Transfer Mode (ATM) - Internetworking, Virtual LANs - Online-Dienste - Internet, Intranet
    Issue
    5., aktualisierte und erw. Aufl.
  12. Marcus, G.F.: Murks : der planlose Bau des menschlichen Gehirns (2009) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2662) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2662,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2662, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2662)
      0.25 = coord(1/4)
    
    Abstract
    Baustelle Gehirn.Warum logisches Denken eher Glückssache ist. Die Evolution hatte ein Problem, als sie das archaische Gehirn unserer Vorfahren umzubauen begann: Es musste in Betrieb bleiben, während der Mensch entstand, und deshalb konnte sie es nicht einfach abreißen wie eine Ruine. Also pfropfte sie die neuen Bauteile irgendwie mehr oder weniger passend auf die alten. Dabei ist Murks entstanden, ein Flickwerk aus alten und neuen Strukturen, die sich andauernd in die Quere kommen. Zum Beispiel bei ökonomischen Entscheidungen, denn die Programme fu¨r den vermeintlich rationalen Umgang mit Tauschwerten (heute vor allem Geld) sind direkt mit den Instinkten der Nahrungsbeschaffung verknu¨pft. Kann man etwas gegen neuronale Kurzschlu¨sse tun? Ja. Zum Beispiel kein vages Ziel setzen (»Ich will sechs Pfund abnehmen«), sondern konkrete Wenn-dann-Pläne entwickeln (»Wenn ich Pommes frites sehe, werde ich sie nicht essen«). Warum das besser ist? Weil das Stammhirn, das nach den Fritten lechzt, auch gut mit Wenn-dann-Plänen umgehen kann.
    Imprint
    Hamburg : Hoffmann und Campe
  13. Dahlberg, I.: Kompatibilität und Integration : Probleme und Lösungen in der Wissensorganisation (2008) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2677) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2677,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2677, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2677)
      0.25 = coord(1/4)
    
    Source
    Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
  14. Hayer, L.: Lazarsfeld zitiert : eine bibliometrische Analyse (2008) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2934) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2934,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2934, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2934)
      0.25 = coord(1/4)
    
    Abstract
    Um sich einer Antwort auf die Frage anzunähern, welche Bedeutung der Nachlass eines Wissenschaftlers wie jener Paul F. Lazarsfelds (mit zahlreichen noch unveröffentlichten Schriften) für die aktuelle Forschung haben könne, kann untersucht werden, wie häufig dieser Wissenschaftler zitiert wird. Wenn ein Autor zitiert wird, wird er auch genutzt. Wird er über einen langen Zeitraum oft genutzt, ist vermutlich auch die Auseinandersetzung mit seinem Nachlass von Nutzen. Außerdem kann aufgrund der Zitierungen festgestellt werden, was aus dem Lebenswerk eines Wissenschaftlers für die aktuelle Forschung relevant erscheint. Daraus können die vordringlichen Fragestellungen in der Bearbeitung des Nachlasses abgeleitet werden. Die Aufgabe für die folgende Untersuchung lautete daher: Wie oft wird Paul F. Lazarsfeld zitiert? Dabei interessierte auch: Wer zitiert wo? Die Untersuchung wurde mit Hilfe der Meta-Datenbank "ISI Web of Knowledge" durchgeführt. In dieser wurde im "Web of Science" mit dem Werkzeug "Cited Reference Search" nach dem zitierten Autor (Cited Author) "Lazarsfeld P*" gesucht. Diese Suche ergab 1535 Referenzen (References). Werden alle Referenzen gewählt, führt dies zu 4839 Ergebnissen (Results). Dabei wurden die Datenbanken SCI-Expanded, SSCI und A&HCI verwendet. Bei dieser Suche wurden die Publikationsjahre 1941-2008 analysiert. Vor 1956 wurden allerdings nur sehr wenige Zitate gefunden: 1946 fünf, ansonsten maximal drei, 1942-1944 und 1949 überhaupt keines. Zudem ist das Jahr 2008 noch lange nicht zu Ende. (Es gab jedoch schon vor Ende März 24 Zitate!)
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.2, S.14-20
  15. BOND: Katalogisate-Pool BCS kommt gut an (2008) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 2977) [ClassicSimilarity], result of:
          0.025109591 = score(doc=2977,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 2977, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2977)
      0.25 = coord(1/4)
    
    Abstract
    »Die rasante Entwicklung des BOND Community System (BCS) übertrifft unsere Erwartungen«, erklärt Andreas Serr, Produktmanager der BOND-Tochter BOND Library Service GmbH &Co. KG (BLS). Bereits über 10.000 neue Datensätze wurden in den letzten Monaten von BOND-Kunden für BOND-Kunden in den gemeinsamen Datenpool erfasst. Tendenz schnell steigend. Der komplette Katalogisate-Pool, der den Nutzern kostenlos zur Verfügung steht, umfasst inzwischen fast 700.000 Katalogisate. »Das Schöne an BCS ist, dass alle davon profitieren«, unterstreicht Serr. Den Teilnehmern entstehen weder Kosten noch Mehrarbeit. Die Datenübernahme erfolgt bequem per Mausklick aus dem Daten-Pool direkt in den eigenen Katalog. Fast noch einfacher ist es, Daten in BCS zur Verfügung zu stellen. Man erfasst sein Katalogisat wie immer. Mit dem Klick zum Abspeichern landen die Daten automatisch im BCS-Pool. »Damit macht man mit seiner täglichen Arbeit viele andere Bibliotheken glücklich«, ergänzt Serr. Dank der großen Zahl und der Kooperationsbereitschaft der BOND-Anwender funktioniert das System jetzt schon prächtig. »Irgendwie ist die Idee genial und einfach zugleich!« schrieb eine Kundin, die seit Mitte März am BCS teilnimmt. Wie wird man BCS Teilnehmer? Am BCS teilnehmen können alle Anwender von BIBLIOTHECA 2000 (ab Version 2.9) und BIBLIOTHECA.net (Version 2.1). Die Erst-Anmeldung erfolgt per Anmelde-PDF, das unter www.library-service.de/ bcs.htm zum Download bereitsteht. Die Freischaltung erfolgt dann in der Regel innerhalb 24 Stunden.
  16. Stock, W.G.: Informationelle Städte und Informationswissenschaft (2011) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 510) [ClassicSimilarity], result of:
          0.025109591 = score(doc=510,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=510)
      0.25 = coord(1/4)
    
    Abstract
    Informationelle Städte sind die prototypischen Metropolen der Wissensgesellschaft. Einige sind derzeit im Entstehen (wie beispielsweise London oder New York), andere haben bereits einen beträchtlichen Reifegrad erreicht (etwa in Singapur oder Dubai). Jede Gesellschaftsepoche bringt typische Städte hervor. Denken wir an die Industriegesellschaft, so fällt vielen unweigerlich Manchester oder in Deutschland das Ruhrgebiet in der ersten Hälfte des 20. Jahrhunderts ein, betrachten wir die Dienstleistungsgesellschaft, so wird die Wahl beispielsweise auf New Yorks Manhattan oder auf Düsseldorf fallen. Es ist die These aufgestellt worden, dass Städte und Regionen, die den Übergang zur Wissensgesellschaft nicht schaffen, als "economic deadlands" enden werden. Angesichts eines solchen Szenarios scheint es angebracht, dass die Verantwortlichen der Städte dafür Sorge tragen, die Weichen für die richtige Entwicklung frühzeitig zu stellen. Doch was heißt "richtige Entwicklung"? Wie werden die Städte der Wissensgesellschaft aussehen? Wie kann man deren Entwicklung vorantreiben? Gibt es Risiken? Ist die informationelle Stadt wirklich erstrebenswert? Hierzu möchten die Artikel in diesem Themenheft erste Antworten geben. Es gibt bereits eine Fülle an Literatur zu Städten der Wissensgesellschaft. Zu Beginn müssen wir allerdings feststellen, dass es viele Konzeptionen mit unterschiedlicher Terminologie gibt, die durchaus an eine babylonische Sprachverwirrung erinnern. Dies betrifft sowohl den Begriff "Wissensgesellschaft" als auch den der "informationellen Städte".
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.65-67
  17. Sen, W.: Social Media Measurement : Methoden zur automatischen Reichweitenmessung von Beiträgen in Webforen (2013) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 1993) [ClassicSimilarity], result of:
          0.025109591 = score(doc=1993,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 1993, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1993)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Werk beschäftigt sich mit der Erstellung eines Konzepts zur automatischen Messung von Reichweiten einzelner Postings in Socual Media mit dem Schwerpunkt Webforen. Die wesentliche Fragestellugn ist: Kann man automatisch auswerten und aufzeigen, wann ein Beitrag in einem Webforum eine hohe Reichweite erreicht hat oder erreichen wird? Die Ergebnisse sind Methoden, die solche Messungen automatisch vornehmen können, ohne dass Nachrichten von einem Menschen oder von einer Maschine intellektuell oder automatisch gelsesen werden müssen. Hintergrund dieses Vorgehens ist der, dass in Social Media eine sehr hohe Anzahl von User Generated Content zu verschidenen Themen vorhanden ist. Im weiteren Verlauf dieser Arbeit wird vor allem auch aufgezeigt, wie ein solches Konzept technisch umsetzbar ist. Daher werden Inhalte von Webforen zunächst aufbereitet, um dann die hier vorgestellten Methoden mit Hilfe einer speziellen Software darauf anzuwenden. Diese Erkenntnis führt dazu, dass sich Unternehmen aus einer großen Anzahl von Beiträgen im Social Web diejenigen anzeigen lassen können, die das Potenzial haben, eine hohe Reichweite zu erreichen oder bereits erreicht haben. Das würde bedeuten, dass beipsielsweise Trends und Issues frühzeitig von Unternehmen erkannt werden können. Außerdem erleichtert diese Methode Marktforschern und anderen Zielgruppen "die Suche nach der Nadel im Heuhaufen".
  18. Rudolph, S.; Hemmje, M.: Visualisierung von Thesauri zur interaktiven Unterstüzung von visuellen Anfragen an Textdatenbanken (1994) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 3382) [ClassicSimilarity], result of:
          0.025109591 = score(doc=3382,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 3382, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3382)
      0.25 = coord(1/4)
    
    Abstract
    In der folgenden Studie wird eine Komponente für eine visuelle Benutzerschnittstelle zu Textdatenbanken entworfen. Mit Hilfe einer Terminologievisualisierung wird dem Benutzer eine Hilfestellung bei der Relevanzbewertung von Dokumenten und bei der Erweiterung seiner visuellen Anfrage an das Retrieval-System gegeben. Dazu werden zuerst die grundlegenden Information-Retrieval-Modelle eingehender vorgestellt, d.h., generelle Retrieval-Modelle, Retrievaloperationen und spezielle Retrieval-Modelle wie Text-Retrieval werden erläutert. Die Funktionalität eines Text-Retrieval-Systems wird vorgestellt. Darüber hinaus werden bereits existierende Implementierungen visueller Information-Retrieval-Benutzerschnittstellen vorgestellt. Im weiteren Verlauf der Arbeit werden mögliche Visualisierungen der mit Hilfe eines Text-Retrieval-Systems gefundenen Dokumente aufgezeigt. Es werden mehrere Vorschläge zur Visualisierung von Thesauri diskutiert. Es wird gezeigt, wie neuronale Netze zur Kartierung eines Eingabebereiches benutzt werden können. Klassifikationsebenen einer objekt-orientierten Annäherung eines Information-Retrieval-Systems werden vorgestellt. In diesem Zusammenhang werden auch die Eigenschaften von Thesauri sowie die Architektur und Funktion eines Parsersystems erläutert. Mit diesen Voraussetzung wird die Implementierung einer visuellen Terminologierunterstützung realisiert. Abschließend wird ein Fazit zur vorgestellten Realisierung basierend auf einem Drei-Schichten-Modell von [Agosti et al. 1990] gezogen.
  19. Hummel, P.: Millionen Fachartikel illegal im Netz verfügbar (2016) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 3871) [ClassicSimilarity], result of:
          0.025109591 = score(doc=3871,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 3871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3871)
      0.25 = coord(1/4)
    
    Abstract
    Die Online-Plattform Sci-Hub überwindet die Paywalls der Verlage und baut eine riesige "Schattenbibliothek" der Wissenschaft auf. Auch Gerichte können sie bislang nicht stoppen. Das hatte sich Elsevier sicherlich anders vorgestellt. Der große Wissenschaftsverlag hat im Juni 2015 Klage gegen die Online-Plattformen Sci-Hub und LibGen eingereicht. Der Grund: Dort war eine riesige Anzahl akademischer Publikationen frei und kostenlos zugänglich gemacht worden. Sci-Hub bot Nutzern Zugriff auf Millionen Veröffentlichungen, viele davon urheberrechtlich geschützt. Seit nun letzte Woche die Website Bigthink.com ausführlich über das Verfahren gegen Sci-Hub vor einem US-Bundesbezirksgerichts in New York berichtet hat, verbreitet sich die Nachricht vom "Pirate Bay für die Wissenschaft" in den sozialen Netzwerken rasant. Eine bessere Werbemaßnahme als das Gerichtsverfahren hätte sich Sci-Hub kaum wünschen können. Elsevier ist einer der größten akademischen Verlage der Welt. Nach Presseberichten macht das Unternehmen mit seinen mehr als 2200 Journalen einen jährlichen Reinerlös von über einer Milliarde Dollar. Doch es sieht seine Geschäfte offenbar durch Sci-Hub bedroht. Mit aktuell mehr als 49 Millionen Veröffentlichungen, die 35 Terabyte an Daten umfassen, wie der (nicht verifizierte) Twitter-Account @Sci_Hub schreibt, umfasst die "Schattenbibliothek" wohl eine der größten je vorhandenen Sammlungen akademischer Literatur.
  20. Meister, A.: Projekt "ANISKI" : Wie der BND mit 150 Millionen Euro Messenger wie WhatsApp entschlüsseln will (2016) 0.01
    0.0062773977 = product of:
      0.025109591 = sum of:
        0.025109591 = weight(_text_:und in 4265) [ClassicSimilarity], result of:
          0.025109591 = score(doc=4265,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.21221566 = fieldWeight in 4265, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4265)
      0.25 = coord(1/4)
    
    Content
    "Am Freitag hat der Bundestag den Haushalt für 2017 beschlossen. Der BND bekommt nächstes Jahr 807 Millionen Euro, zwölf Prozent mehr als dieses Jahr. Bundeskanzlerin Merkel sagte gestern: "Circa eine halbe Milliarde Euro werden jetzt und in den kommenden Jahren in technische Entwicklungen investiert, damit der BND mit den heutigen Anforderungen auf dem Gebiet [der Modernisierung] wirklich Schritt halten kann." Wofür genau der BND diesen Geldregen ausgibt, wird nicht veröffentlicht - das ist geheim. Der Rechercheverbund NDR, WDR und Süddeutsche Zeitung berichtete im September, dass 21,5 Millionen Euro dafür geplant sind, verschlüsselte Kommunikationsdienste wie Instant-Messenger besser überwachen zu können. Wir haben jetzt Dokumente erhalten, aus denen hervorgeht, dass der BND für das Knacken von Verschlüsselung ganze 150 Millionen Euro ausgeben will, dieses Jahr 5,4 Millionen und nächstes Jahr schon knapp 16 Millionen Euro. Das steht im "geheim" eingestuften Haushaltsposten für das neue Projekt "ANISKI", den wir an dieser Stelle wie gewohnt in Volltext veröffentlichen.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications