-
Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008)
0.00
0.004952882 = product of:
0.019811528 = sum of:
0.019811528 = weight(_text_:und in 3403) [ClassicSimilarity], result of:
0.019811528 = score(doc=3403,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.16977254 = fieldWeight in 3403, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3403)
0.25 = coord(1/4)
- Content
- "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
-
Brown, D.J.; Boulderstone, R.: ¬The impact of electronic publishing : the future for publishers and librarians
0.00
0.004952882 = product of:
0.019811528 = sum of:
0.019811528 = weight(_text_:und in 576) [ClassicSimilarity], result of:
0.019811528 = score(doc=576,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.16977254 = fieldWeight in 576, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=576)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt VÖB 63(2010) H.1/2, S.149-155 (B. Bauer): "Wie schon die erste Auflage thematisiert auch die neue, deutlich erweitere Ausgabe den Wandel vom traditionellen Publikationsmodell (print-only) zu einem hybriden (print and digital) bzw. zu einem ausschließlich elektronischen Publikationsmodell. Aufgrund der rasanten Entwicklung des elektronischen Publikationssektors in den letzten zehn Jahren wurde eine Überarbeitung erforderlich. So war etwa in der ersten Auflage die Bedeutung der CD-ROM-Technologie übertrieben dargestellt worden, während die Auswirkungen des Internet und des Web unterschätzt worden waren. Brown & Boulderstone beschreiben in ihrem Buch, wie das Thema "elektronisches Publizieren" Verlage und Bibliotheken in den letzten Jahren in mehreren Phasen beeinflusst hat: In Phase 1 - von den frühen 1990er Jahren bis zum Erscheinen der ersten Auflage 1996 - gab es zwar schon elektronische Medien, aber noch dominierten gedruckte Medien. Phase 2 - von Mitte der 1990er Jahre bis zu den frühen 2000er Jahren - war eine Periode der Konfusion, die durch das Erscheinen des Internet und durch die damit einhergehenden neuen Möglichkeiten verursacht wurde. Phase 3 - seit den frühen 2000er Jahren - ist gekennzeichnet von einem starken Aufschwung des elektronischen Publizierens; der Stellenwert der digitalen hat gegenüber den entsprechenden analogen Versionen deutlich zugenommen. In diesem Abschnitt werden, gegliedert in drei Kategorien, 14 Einflussfaktoren, die die Entwicklung hin zum elektronischen Publizieren beschleunigen, vorgestellt.
-
Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002)
0.00
0.004952882 = product of:
0.019811528 = sum of:
0.019811528 = weight(_text_:und in 731) [ClassicSimilarity], result of:
0.019811528 = score(doc=731,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.16977254 = fieldWeight in 731, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=731)
0.25 = coord(1/4)
- Abstract
- Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
- Content
- Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
-
Röttgers, J.: ¬Eine rote Leiste verrät Datensammler : Ergänzungen im Webbrowser helfen Surfern, ihre Privatsphäre zu bewahren (2003)
0.00
0.004795607 = product of:
0.019182429 = sum of:
0.019182429 = weight(_text_:und in 2245) [ClassicSimilarity], result of:
0.019182429 = score(doc=2245,freq=10.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.16438155 = fieldWeight in 2245, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2245)
0.25 = coord(1/4)
- Content
- "Wer online unterwegs ist, hinterlässt Spuren. Webseiten merken sich, von welcher Netzadresse mit welchem Programm zugegriffen wird. Sie senden kleine Datenpakete auf die Rechner der Surfer; die Cookie genannten Dateien ermöglichen es, Besucher beim erneuten Zugriff auf eine Seite wiederzuerkennen. Viele Angebote erfordern zudem eine Registrierung, viele geben sich dabei ziemlich neugierig. Wie groß ist das monatliche Haushaltseinkommen? Was wurde in den vergangenen Wochen gekauft? Wie viele Stunden verbringt man im Netz? Was stellen Web-Anbieter mit all den Informationen an? Wer darauf eine Antwort will; .muss sich oft durch lange Datenschutzrichtlinien kämpfen, ohne hinterher viel schlauer zu sein. Eine Technik namens P3P soll den Konsumenten helfen. Web-Anbieter teilen damit Surfern in maschinenlesbarer Form mit, was sie mit ihren persönlichen Daten anstellen. Ausgewertet werden die Angaben beispielsweise von einem Webbrowser. Das Programm kann so entscheiden, ob und zu welchen Bedingungen es Daten mit der betreffenden Seite austauscht. Ein Browser könnte etwa Cookie-Dateien nur für die Dauer eines Zugriffs akzeptieren,' wenn das für personalisierte Dienste wie Webmail sinnvoll ist, oder den Benutzer davor warnen, dass der Anbieter E-Mail-Adressen an seine Werbekunden weitergibt. Offiziell eingeführt wurde P3P im April. Daher gibt es erst eine Hand voll Programme, die den Standard unterstützen. Das bekannteste ist Microsofts Internet Explorer in der sechsten Version. Der Browser nutzt P3P, um seinem Anwender größere Freiheiten im Umgang mit Cookie-Dateien zu geben. Nach Angaben der Universität Hannover verwenden 35 Prozent der deutschen Surfer die Software. Freilich dürften die wenigsten die P3P-Option kennen; sie arbeitet eher verborgen. AT&T Privacy Bird hat sich dagegen der öffentlichen Aufklärung verschrieben. Das kleine Programm klinkt sich in die Titelleiste des Webbrowsers ein und zeigt deutlich, ob der besuchten Seite in Sachen Datenschutz zu trauen ist: Genügt sie den eigenen Voreinstellungen, färbt sich der Datenschutz-Vogel grün. Verstößt sie dagegeit, läuft er rot an. Bei Seiten ohne P3P-Informationen bleibt er gelb. ' Programme wie dieses seien "einfache Werkzeuge, um erst einmal ein Leben mit P3P zu erkunden", erklärt Marc Langheinrich von der Technischen Hochschule Zürich. Er ist Koautor der P3P Spezifikationen. Es wird noch eine ganze Weile dauern, bis man wirklich zufrieden stellende Lösungen konzipieren kann", sagt er. Doch die schönste Software bringt wenig, wenn Web-Anbieter ihre Datenschutzrichtlinien nicht in dem Format zur Verfügung stellen. In den USA beginnen die großen Web-Anbieter, sich auf P3P einzulassen; das Lycos-Portal geht als Vorbild voran. In Deutschland sieht es anders aus. Publikumslieblinge wie spiegel.de, web.de bild.de oder freenet.de bieten keine maschiilnenlesbaren Datenschutz Erklärungen an. Von den bekannten Webseiten unterstützt nur tagesschau.de P3P. Immerhin ist einigen Anbietern die Problematik bekannt. So erklärt die Comdirect-Bank auf Anfrage, man verfolge die Entwicklung, habe aber keine konkreten Pläne. Man wartet offenbar ab, bis die Surfer das Thema offensiver aufgreifen.
So sagt Hanno Müller von Grußkarten-Anbieter edgarde: "Noch haben zu wenig Anwender einen P3P-fähigen Browser. Die,'die einen haben, wissen nicht, dass es P3P gibt und was sie damit anfangen können." Paradoxerweise sorgen die im interna tionalen Vergleich strengen deutschen Datenschutzgesetze dafür, dass sich nur wenige heimische Anbieter für P3P begeistern. In den USA sind die Vorschriften weitaus laxer. Das führte dazu, dass Firmen Datenschutz als Wettbewerbsvorteil begreifen und offensiv damit werben. Hier zu Lande sind die rechtlichen Standards höher, Unternehmen informieren ihre Kunden dafür weniger über Datenspeicherungen. Manche große Webanbieter verzichten sogar ganz auf Datenschutzhinweise; andere erklären lapidar, keine Gesetzesbrecher zu sein:. "Bei der Verwaltung ihrer Daten halten wir uns an die gesetzlichen Vorschriften." Eine Praxis, die Datenschutzbeauftragte als unzureichend ablehnen. Mehr Druck von Verbrauchern - den werde es nur geben, wenn die User mehr um die Risiken wissen, die das Surfen und Einkaufen im Netz mit sich bringen, erläutert Marc Langheinrich: "Solange sich der Bürger ausreichend von staatlichen Organen beschützt fühlt, wird da wenig Drang sein, sich seine Bücher nur von datenschutzfreundlichen Websites zu kaufen."
-
IFLA Cataloguing Principles : steps towards an International Cataloguing Code. Report from the 1st Meeting of Experts on an International Cataloguing Code, Frankfurt 2003 (2004)
0.00
0.0047420235 = product of:
0.018968094 = sum of:
0.018968094 = weight(_text_:und in 3312) [ClassicSimilarity], result of:
0.018968094 = score(doc=3312,freq=22.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.16254483 = fieldWeight in 3312, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3312)
0.25 = coord(1/4)
- BK
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
- Classification
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
- Footnote
- Weitere Rez. in: ZfBB 52(2005) H.3/4, S.227-228 (K. Haller): " ... Im Mittelpunkt der Publikation steht das revidierte Statement of International Cataloguing Principles. Es wendet sich mit seinen Grundsätzen gleichermaßen an Bibliografien und Bibliothekskataloge sowie Datensammlungen in Archiven, Museen und dergleichen Einrichtungen. Terminologisch und inhaltlich geht das Statement von den Functional Requirements for Bibliographic Records (FRBR) aus. Durch die Functional Requirements and Numbering of Authority Records (FRANAR) werden die Normdateien und die Sacherschließung in das Statement eingebracht. Die FRBR sind ein theoretisches Modell, ein strategisches Dokument, in dem durch die Entitäten die logischen Zusammenhänge dargestellt und damit die notwendi ge Erschließungsqualität definiert wird. Es geht um klare Grundsätze für Wahl, Anzahl und Art der Suchbegriffe (access points) und deren Beziehungen. ... Insgesamt ist die Publikation sehr zu begrüßen und als Pflichtlektüre allen Verantwortlichen im Erschließungsbereich und dem in Ausbildung befindlichen Nachwuchs dringend zu empfehlen."
-
Human perspectives in the Internet society : culture, psychology and gender; International Conference on Human Perspectives in the Internet Society <1, 2004, Cádiz> (2004)
0.00
0.004521342 = product of:
0.018085368 = sum of:
0.018085368 = weight(_text_:und in 1091) [ClassicSimilarity], result of:
0.018085368 = score(doc=1091,freq=20.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.1549804 = fieldWeight in 1091, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1091)
0.25 = coord(1/4)
- BK
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- RVK
- AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
-
Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004)
0.00
0.0043337718 = product of:
0.017335087 = sum of:
0.017335087 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
0.017335087 = score(doc=3124,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14855097 = fieldWeight in 3124, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3124)
0.25 = coord(1/4)
- Content
- "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
-
Veltman, K.H.: From Recorded World to Recording Worlds (2007)
0.00
0.0043337718 = product of:
0.017335087 = sum of:
0.017335087 = weight(_text_:und in 1512) [ClassicSimilarity], result of:
0.017335087 = score(doc=1512,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14855097 = fieldWeight in 1512, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1512)
0.25 = coord(1/4)
- Content
- Vgl. Hinweis in: Online-Mitteilungen 2007, Nr.91 [=Mitt. VOEB 60(2007) H.3], S.15: "Auf der Tagung "Herausforderung: Digitale Langzeitarchivierung - Strategien und Praxis europäischer Kooperation" welche vom 20. bis 21. April 2007 in der Deutschen Nationalbibliothek (Frankfurt am Main) stattfand, befassten sich die einzelnen Referentinnen nicht nur mit der Bewahrung des Kulturgutes, sondern u.a. auch mit der "Aufzeichnung der Welten". Wie man diese "Weltaufzeichnung" in Anbetracht der Fülle und stetigen Zunahme an Informationen zukünftig (noch) besser bewältigen kann, thematisierte Kim H. Veltman in seinem Vortrag. Er präsentierte dazu vier äußerst denkwürdige Ansätze: - Schaffung einerzentralen europäischen Instanz, welche die Gedächtnisinstitutionen über die neusten technologischen Entwicklungen informiert - Errichtung eines digitalen Referenzraums und einer virtuellen Agora innerhalb der Europäischen Digitalen Bibliothek - Gründung eines Instituts zur Wissensorganisation - Erforschen der Anforderungen für eine "Universal Digital Library"."
-
Weinberger, D.: Everything is miscellaneous : the power of the new digital disorder (2007)
0.00
0.0043337718 = product of:
0.017335087 = sum of:
0.017335087 = weight(_text_:und in 3862) [ClassicSimilarity], result of:
0.017335087 = score(doc=3862,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14855097 = fieldWeight in 3862, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3862)
0.25 = coord(1/4)
- Footnote
- Weitere Rez. in: BuB 59(2007) H.10, S.750-751 (J. Plieninger: Vermischtes und noch mehr ...): "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. ..." Weitere Rez. in JASIST 60(2009) no.6, S.1299-1300 (G Thornton). Vgl. für Rezensionen auch: http://www.everythingismiscellaneous.com/reviews/.
-
Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017)
0.00
0.0043337718 = product of:
0.017335087 = sum of:
0.017335087 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
0.017335087 = score(doc=4891,freq=6.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14855097 = fieldWeight in 4891, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4891)
0.25 = coord(1/4)
- Abstract
- Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
-
Universal classification II : Subject analysis and ordering systems. Proc. 4th Int. Study Conf. on Classification Research, 6th Annual Conf. of Gesellschaft für Klassifikation, Augsburg, 28.6.-2.7.1982 (1983)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 810) [ClassicSimilarity], result of:
0.017157285 = score(doc=810,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 810, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=810)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: OESER, E.: The two systems of knowledge organization; CAVALCANTI, C.: Systems applications and concepts in the field of classification; KAULA, P.N.: Rethinking on concepts in the study of classification; WAHLIN, E.: Analysis of different ordering principles (Appendices); GIERTZ, L.M.: Note on general principles and policies; VET, P.E. vander: Notes on the foundations of classificatio theories; MÖNKE, H.: Analytische Pragmatik und Dogmatik in der Klassifikation; FUGMANN, R.: The complementarity of natural and indexing languages; HENRIKSEN, T.: On the mechanization of the chain index (abstract); Rajan, T.N. et al: Associate relationships of concepts as seen through citations and citation index (abstract); RAHMSTORF, G.: Explication of class descriptions; DIENES, M.: Structural differences in classification systems and the testing of the compatibility matrix in the field of culture; KOERNER, H.G.: Classification and small computers; SCIBOR, E.: Polish subject-field classification - broad ordering system for use on a national scale; KLESZCZ, F.: Towards a classification, unification and selection of automatic indexing methods
-
Dahlberg, I.: ICC - Information Coding Classification : principles, structure and application possibilities (1982)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 1237) [ClassicSimilarity], result of:
0.017157285 = score(doc=1237,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 1237, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1237)
0.25 = coord(1/4)
- Footnote
- Das System wird angewendet in den verschiedenen Ausgaben der 'International Classification and Indexing Bibliography' und in der laufenden Bibliographie in 'International Classification'
-
Bellamy, L.M.; Bickham, L.: Thesaurus development for subject cataloging (1989)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 2261) [ClassicSimilarity], result of:
0.017157285 = score(doc=2261,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 2261, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2261)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Milstead, J.L.: Specifications for thesaurus software (1991)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 2290) [ClassicSimilarity], result of:
0.017157285 = score(doc=2290,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 2290, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2290)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Jones, S.: ¬A thesaurus data model for an intelligent retrieval system (1993)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 5278) [ClassicSimilarity], result of:
0.017157285 = score(doc=5278,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 5278, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5278)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Conlon, S.P.N.; Evens, M.; Ahlswede, T.: Developing a large lexical database for information retrieval, parsing, and text generation systems (1993)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 5812) [ClassicSimilarity], result of:
0.017157285 = score(doc=5812,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 5812, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5812)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Rahmstorf, G.: Information retrieval using conceptual representations of phrases (1994)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 7861) [ClassicSimilarity], result of:
0.017157285 = score(doc=7861,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 7861, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=7861)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Lancaster, F.W.: Searching databases on CD-ROM : comparison of the results of end-user searching with results from two modes of searching by skilled intermediaries (1994)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 8371) [ClassicSimilarity], result of:
0.017157285 = score(doc=8371,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 8371, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=8371)
0.25 = coord(1/4)
- Content
- Im einzelnen wurden für den Patron (P), den Education Librarian (E) und das Team (T) folgende Zahlen ermittelt: Recall (P:32,3%; E:45,9%; T:53,8%); Precision (P:75,5%; E:71,4%; T:66,8%); Novelty (P:51,8%; E:61,6%; T:59,4%)
-
Dietze, J.: Informationsrecherchesprache und deren Lexik : Bemerkungen zur Terminologiediskussion (1980)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 100) [ClassicSimilarity], result of:
0.017157285 = score(doc=100,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=100)
0.25 = coord(1/4)
-
Reekers, N.: Electronic Data Interchange use in German und US organizations (1994)
0.00
0.004289321 = product of:
0.017157285 = sum of:
0.017157285 = weight(_text_:und in 1034) [ClassicSimilarity], result of:
0.017157285 = score(doc=1034,freq=2.0), product of:
0.11669454 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0526149 = queryNorm
0.14702731 = fieldWeight in 1034, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1034)
0.25 = coord(1/4)