Search (11727 results, page 583 of 587)

  • × language_ss:"d"
  1. Graf, K.: Verschlimmbesserung total : die Stümper*innen von DigiZeitschriften haben sich selbst übertroffen (2022) 0.00
    0.004847532 = product of:
      0.019390129 = sum of:
        0.019390129 = weight(_text_:und in 599) [ClassicSimilarity], result of:
          0.019390129 = score(doc=599,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17141339 = fieldWeight in 599, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=599)
      0.25 = coord(1/4)
    
    Abstract
    Es ist ausgezeichnet, dass geisteswissenschaftliche Kernzeitschriften des deutschsprachigen Raums online im Rahmen von Digizeitschriften: http://digizeitschriften.de/ (unsicher!) zur Verfügung stehen. Seit einer gefühlten Ewigkeit bin ich aber ein scharfer Kritiker der Art und Weise, wie das geschieht. Kürzlich hat es offenbar einen Relaunch der Website gegeben, der neben einigen Verbesserungen katastrophale Verschlechterungen für die Nutzer mit sich brachte. Es wäre an der Zeit, dass die zahlenden Nutzer des Angebots, die Institutionen, die eine Masse Geld zahlen müssen, endlich gegen den maßlos schlechten Service rebellieren. Die meisten bisherigen Links führen ins Leere.
  2. Schrader, A.: ORCID DE 2 erfolgreich beendet (2022) 0.00
    0.004847532 = product of:
      0.019390129 = sum of:
        0.019390129 = weight(_text_:und in 824) [ClassicSimilarity], result of:
          0.019390129 = score(doc=824,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17141339 = fieldWeight in 824, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=824)
      0.25 = coord(1/4)
    
    Abstract
    "auch wenn das Projekt ORCID DE abgeschlossen wurde [wir berichteten dazu am 06.12.22 <https://www.orcid-de.org/support/blogbeitraege/projekt-orcid-de-2-erfolgreich-beendet> ], wird selbstverständlich weiter an der Verbreitung von ORCID und seiner Verzahnung mit weiteren PID-Systemen in Deutschland gearbeitet. Daher können wir Ihnen heute mitteilen, dass die DNB vor kurzem einen weiteren Claiming-Service produktiv genommen hat: "GND Network". Forschende können über die bereits bekannten Schritte des ORCID-Search-&-Link-Service mit wenigen Klicks die Metadaten ihrer Publikationen aus zahlreichen Katalogen des GND-Netzwerks in das eigene ORCID-Profil übernehmen. Den ORCID-Nutzenden stehen somit Metadaten vieler weiterer Publikationen zur Verfügung, was es ihnen erleichtert, ihre Publikationsliste im ORCID-Record aktuell zu halten. Mehr dazu lesen Sie hier: https://www.orcid-de.org/support/blogbeitraege/dritter-claiming-service-produktiv".
  3. Zerbst, H.-J.; Kaptein, O.: Gegenwärtiger Stand und Entwicklungstendenzen der Sacherschließung : Auswertung einer Umfrage an deutschen wissenschaftlichen und Öffentlichen Bibliotheken (1993) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 7394) [ClassicSimilarity], result of:
          0.019191252 = score(doc=7394,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 7394, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=7394)
      0.25 = coord(1/4)
    
    Abstract
    Ergebnis einer Umfrage aus dem Frühjahr 1993. A. Wissenschaftliche Bibliotheken: Versandt wurde der Fragebogen an die Mitglieder der Sektion IV des DBV. Fragen: (1a) Um welchen Bestand handelt es sich, der sachlich erschlossen wird? (1b) Wie groß ist dieser Bestand? (1c) Wird dieser Bestand vollständig oder nur in Auswahl (einzelne Fächer, Lehrbücher, Dissertationen o.ä.) sachlich erschlossen? (1d) Seit wann bestehen die jetzigen Sachkataloge? (2) Auf welche Art wird der Bestand zur Zeit sachlich erschlossen? (3a) Welche Klassifikation wird angewendet? (3b) Gibt es alphabetisches SyK-Register bzw. einen Zugriff auf die Klassenbeschreibungen? (3c) Gibt es ergänzende Schlüssel für die Aspekte Ort, Zeit, Form? (4) Falls Sie einen SWK führen (a) nach welchem Regelwerk? (b) Gibt es ein genormtes Vokabular oder einen Thesaurus (ggf. nur für bestimmte Fächer)? (5) In welcher Form existieren die Sachkataloge? (6) Ist die Bibliothek an einer kooperativen Sacherschließung, z.B. in einem Verbund beteiligt? [Nein: 79%] (7) Nutzen Sie Fremdleistungen bei der Sacherschließung? [Ja: 46%] (8) Welche sachlichen Suchmöglichkeiten gibt es für Benutzer? (9) Sind zukünftige Veränderungen bei der Sacherschließung geplant? [Ja: 73%]. - B. Öffentliche Bibliotheken: Die Umfrage richtete sich an alle ÖBs der Sektionen I, II und III des DBV. Fragen: (1) Welche Sachkataloge führen Sie? (2) Welche Klassifikationen (Systematiken) liegen dem SyK zugrunde? [ASB: 242; KAB: 333; SfB: 4 (???); SSD: 11; Berliner: 18] (3) Führen Sie ein eigenes Schlagwort-Register zum SyK bzw. zur Klassifikation (Systematik)? (4) Führen Sie den SWK nach ...? [RSWK: 132 (= ca. 60%) anderen Regeln: 93] (5) Seit wann bestehen die jetzigen Sachkataloge? (6) In welcher Form existiern die Sachkataloge? (7) In welchem Umfang wird der Bestand erschlossen? (8) Welche Signaturen verwenden Sie? (9) Ist die Bibliothek an einer kooperativen Sacherschließung, z.B. einem Verbund, beteiligt? [Nein: 96%] (10) Nutzen Sie Fremdleistungen bei der Sacherschließung? [Ja: 70%] (11) Woher beziehen Sie diese Fremdleistungen? (12) Verfügen Sie über ein Online-Katalogsystem mit OPAC? [Ja: 78; Nein: 614] (13) Sind zukünftig Veränderungen bei der Sacherschließung geplant? [Nein: 458; Ja: 237]; RESÜMEE für ÖB: "(i) Einführung von EDV-Katalogen bleibt auch in den 90er Jahren ein Thema, (ii) Der Aufbau von SWK wird in vielen Bibliotheken in Angriff genommen, dabei spielt die Fremddatenübernahme eine entscheidende Rolle, (iii) RSWK werden zunehmend angewandt, Nutzung der SWD auch für andere Regeln wirkt normierend, (iv) Große Bewegung auf dem 'Systematik-Markt' ist in absehbarer Zeit nicht zu erwarten, (v) Für kleinere Bibliotheken wird der Zettelkatalog auf absehbare Zeit noch die herrschende Katalogform sein, (vi) Der erhebliche Nachholbedarf in den neuen Bundesländern wird nur in einem größeren Zeitraum zu leisten sein. ??? SPEZIALBIBIOTHEKEN ???
  4. Priddat, B.P.: Zivilisierungsfortschritte: Demokratisierung der Wissensgesellschaft und professioneller Staat : Erste Skizzen zur Konzeption eines "virtuellen Staates" (2002) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 1576) [ClassicSimilarity], result of:
          0.019191252 = score(doc=1576,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 1576, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1576)
      0.25 = coord(1/4)
    
    Abstract
    Die Reform des Sozialstaates, die wir in Deutschland beginnen, war von Kanzler Schröder in den Kontext einer Debatte über die "Zivilgesellschaft" gestellt worden. Die interessanteste Aussage daran ist die implizite Behauptung, daß wir, indem wir in Deutschland von einer Zivilgesellschaft reden, sie nicht haben. Schröder äußerst das extrem vorsichtig, aber die Redeweise von der Verantwortung, die die Gesellschaft für sich selber übernehmen soll, enthält immerhin soviel amerikanische Perspektive, daß wir diese Thematisierung als Beginn der Auflösung eines tradierten deutschen Staatsverständnisses deuten können. In diesem Sinn ist der Aufsatz Schröders von 2000 eine Konkretion des Schröder/Blair-Papiers von 1999. Die Reformpolitik hat die Anmutung einer Strategie; auf dem Gipfel in Florenz 1999 wurde sie als europäische Strategie der new governance angepriesen; auf dem Gipfel in Berlin 2000 als progressive governance. Gemessen am Selbstverständnis einer Zivilgesellschaft, die sich als Bürgergesellschaft versteht - als Gesellschaft kompetenter Bürger, in der Tradition des Hegelschen Selbstbewußtseins als Citoyen -, die den Staat mit hoher Skepsis als einen betrachtet, der sie bevormunden will, sind wir keine Zivilgesellschaft, sondern eine Übergangsform einer staatspaternalistischen Demokratie in einen Suchbereich erhöhter Bürgerbeteiligung. Dieses politische Geschäft übernehmen in Deutschland periodisch Bürgerbewegungen; neu ist die Tatsache, daß eine Regierung, in Form ihres Kanzlers, den Bürgern empfiehlt, mehr Verantwortung zu übernehmen. Schröder führt - auch, nicht ausschließlich - einen Staatsentlastungsdiskurs. Der gewachsene Wohlfahrtsstaat ist allokativ überfordert; die Anspruchsgerechtigkeit überflügelt die Leistungsgerechtigkeit. In Blair/Giddensscher Manier redet Schröder von "fördern und fordern". Hier wird ein neuer Sozialkontrakt angeboten: Der Staat unterstützt die Bürger, aber nur dann, wenn sie ihren Eigenbeitrag nennen, ihre Obligation. Anstelle des gewohnten sozialrechtlich definierten Anspruches wird ein neues Kontraktangebot gemacht. Der Staat beginnt, sich als social investor zu verstehen, der Sozialtransfers nicht aufgrund von Bedarfen auszahlt, sondern aufgrund von Kriterien, die vornehmlich dazu dienen, einen re-entry der Anspruchberechtigten in eigene Einkommensselbständigkeit zu erwirken.
    Source
    Gut zu Wissen: Links zur Wissensgesellschaft. Hrsg.: Heinrich-Böll-Stiftung, konzipiert und bearb. von Andreas Poltermann
  5. Pein, R.: Einfach besser googeln (2005) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 2680) [ClassicSimilarity], result of:
          0.019191252 = score(doc=2680,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 2680, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2680)
      0.25 = coord(1/4)
    
    Content
    "Wer auf der Suche nach Informationen zu einem bestimmten Thema, Bildern, Webseiten oder Ähnlichem ist, versucht es oft erst mal bei www. google.de. Einfach ein paar passende Begriffe eingeben und schon liefert die Suchmaschine das gewünschte Ergebnis - so die Theorie. In der Realität ist die Trefferzahl zwar oft riesig, doch nicht alles ist brauchbar. Hilfreiche Links muss man sich erst mühsam aus dem Informations-Wust heraussuchen. Besser fährt, wer gezielt sucht. Dazu muss man über einige Google-Besonderheiten Bescheid wissen. So ist ein Suchstring auf die Länge von 2048 Zeichen beschränkt und darf aus maximal zehn Wörtern bestehen. Weitere Begriffe werden einfach ignoriert. Bei der Eingabe mehrerer durch Leerzeichen getrennter Wörter sucht Google Seiten, die all diese Begriffe enthalten (AND-Verknüpfung). Genügt es, wenn nur einer von mehreren Begriffen auftaucht, verknüpfen Sie diese in der Suchanfrage mit OR. Informationen über alle James-Bond=Filme mit Sean Connery oder Pierce Brosnan erhalten Sie so mit James Bond (Connery OR Brosnan). Gruppieren Sie Ausdrücke mit runden Klammern, sonst gilt: AND vor OR. Bei der Suche nach Produktangeboten hilft es oft, eine gewünschte Preisspanne anzugeben: Dies geschieht durch zwei aufeinander folgende Punkte zwischen Minimum und Maximum. Mit dem Suchstring Pizzeria 80990..80999 stöbern Sie so auch italienische Restaurants im benachbarten Postleitzahlenbereich der PCpro-Redaktion auf. ABBA 1974..1976 listet Biografien der schwedischen Erfolgsband über die ersten Jahre nach ihrem Grand-Prix-Erfolg. Mit einer Tilde (~) vor den Wörtern werden im englischen Vokabular auch Synonyme gesucht (Mit ~murder z.B. auch crime oder suicide)"
  6. Neller, M.: Geburt eines Kritikers : Wie Kunden zu Rezensenten werden (2005) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 3515) [ClassicSimilarity], result of:
          0.019191252 = score(doc=3515,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 3515, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3515)
      0.25 = coord(1/4)
    
    Abstract
    Von diesem Kritiker weiß man, er mag Fontane, Brecht, erotische Literatur. Man weiß, wie er sich erregt, schimpft und gestikuliert, wenn er ein Buch bespricht, das ihm missfällt. Marcel Reich-Ranicki ist als Rezensent eine Marke. Dagegen ist »Propeller Marketingdesign« alias »fuchs170« unbekannt, obwohl er im deutschsprachigen Internet das ist, was ReichRanicki im deutschen Fernsehen war: oberste Kritikerinstanz. 597 Rezensionen hat »fuchs170« bei Amazon im Netz veröffentlich. Eine sehr beachtliche Zahl, die ihn allein aber nicht zum »Top 1Rezensenten« des Online-Buchhändlers Amazon gemacht hätte. Der drittplazierte Kritiker, der unter der Identität »Martin Oehri« firmiert, hat 1.275 Beiträge verfasst. »fuchs170« hat schlicht mehr Leser überzeugt: 4.251 befanden, seine Rezensionen seien eine nützliche Kaufempfehlung gewesen. Bei »Martin Oehri« waren es 800 weniger. Geht man einmal davon aus, dass die Stimmen nicht manipuliert sind, dann kann man sagen: »fuchs 170« wurde gewählt. Ein Kritiker, der nur vom lesenden Publikum zur Institution erhoben wird. Man hört die Jubelschreie: Das Aus für den Kunstrichter, der vom Elfenbeinturm aus lobt oder vernichtet! In jedem Fall lohnt es, sich zu fragen, ob »fuchs170«, »frizztext« und all die anderen rezensierenden Amazon-Kunden die klassische Literaturkritik demokratisieren. Immerhin ersetzen Kundenrezensionen im Internet allmählich die Buchbesprechung im herkömmlichen Sinn. Die meisten Literaturmagazine im Netz sind in den vergangenen drei, vier Jahren ähnlich schnell verschwunden, wie sie aufgetaucht waren. Den berufsmäßigen Literaturkritiker gibt es im Web zwar noch, sein Publikum aber wird immer überschaubarer - auch, weil der Zugriff auf elektronische Archive der Printmedien im Netz inzwischen meist Geld kostet. Dieses sich leerende Forum füllt Amazon, der Branchenführer unter den Online-Buchhändlern. Er animiert seine Kunden, sich als Kritiker zu versuchen - und stellt sie auf den virtuellen Marktplatz, dorthin, wo das Geld verdient wird.
  7. Dewald, U.: Aus den Augen, aber nicht aus dem Sinn : Auch ohne funktionierendes Sehzentrum kann das Gehirn visuelle Informationen aufnehmen (2005) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 4369) [ClassicSimilarity], result of:
          0.019191252 = score(doc=4369,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 4369, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4369)
      0.25 = coord(1/4)
    
    Content
    "Immer wieder wird von Patienten mit schweren Schäden des Sehzentrums im Gehirn berichtet, in der Lage sind, die Form oder die Position von Gegenständen ungefähr zu erfassen, obwohl sie bewusst gar nichts mehr sehen können. Diesen Effekt konnten die Forscher nun in ihren Tests mit elf Probanden bestätigen. Die Wissenschaftler legten dazu den visuellen Kortex für wenige hundertstel Sekunden mit der so genannten transkraniellen Magnetstimulation (TMS) lahm. Dabei induziert ein starkes magnetisches Feld elektrische Ströme in den Nervenbahnen, so dass die Hirnregion kurzzeitig ihre Funktion nicht mehr erfüllen kann. Gleichzeitig zeigten die Wissenschaftler den Probanden auf einem Monitor wenige tausendstel Sekunden lang entweder grüne oder rote Punkte oder eine horizontale oder vertikale Linie. Alle Probanden gaben anschließend an, nichts gesehen zu haben. Da ihr Sehzentrum blockiert war, konnten sie die Punkte oder Linien zwar mit den Augen aufnehmen, jedoch nicht bewusst wahrnehmen. Als die Forscher sie jedoch aufforderten, die Farbe der Punkte oder die Ausrichtung der Linien zu erraten, lagen die Probanden dennoch meistens richtig: In 75 Prozent der Fälle errieten sie die Lage der Linien, und bei der Farbe der Punkte lag die Trefferquote sogar bei mehr als 80 Prozent. Auch wenn der visuelle Kortex blockiert war, wurden die Informationen dennoch auf unbewusste Weise vom Gehirn erfasst, erläutert Tony Ro die Ergebnisse. Auf weichen Wegen diese auch ohne die Mitarbeit des Sehzentrums in höhere Hirnregionen gelangen, können die Forscher jedoch noch nicht erklären. Die Beobachtungen werfen ein neues Licht auf die Frage, wo und auf welche Weise im Gehirn Bewusstsein entsteht und weiche Bedeutung der immer wieder kontrovers diskutierten unbewussten Wahrnehmung zukommt."
  8. Marcus, S.: Textvergleich mit mehreren Mustern (2005) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 862) [ClassicSimilarity], result of:
          0.019191252 = score(doc=862,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 862, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=862)
      0.25 = coord(1/4)
    
    Abstract
    Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
  9. Kleinz, T.: Konkurrenz für Wikipedia : Google bastelt an Wissensportal - Autoren sollen Anteile an Werbeeinnahmen erhalten (2007) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 758) [ClassicSimilarity], result of:
          0.019191252 = score(doc=758,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 758, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=758)
      0.25 = coord(1/4)
    
    Content
    "Mit der Ankündigung einer Wissensplattform hat der Suchmaschinen-Konzern Google für reichlich Aufregung in der Internet-Szene gesorgt. Wikipedia-Gründer Jimmy Wales gibt sich betont gelassen. Das Projekt heißt Knol - die Kurzform für "Knowledge", zu Deutsch: Wissen. Noch sind nicht viele Informationen bekannt. Die Ankündigung beschränkt sich auf einem kurzen Beitrag des Google-Managers Udi Manber im Firmen-Weblog. Manber beschreibt die Mission so: "Wir glauben, dass viele Menschen ihr Wissen nicht teilen, weil es heute immer noch nicht einfach genug ist, das zu tun". Mit Knol sollen die Google-Nutzer Gelegenheit bekommen, Artikel zu beliebigen Themen zu verfassen und direkt online zu stellen. Eigentlich eine Kriegserklärung an Wikipedia, denn das Projekt hat eben den Anspruch, das Teilen von Wissen möglichst einfach zu machen." In Interviews demonstriert Wikipedia-Gründer Jimmy Wales Gelassenheit. "Google macht eine Menge toller Sachen, aber diese Sachen funktionieren nicht immer." Damit hat der 41-Jährige durchaus recht: So stellte Google vor einem Jahr seine Wissens-Plattform "Google Answers" ein, da sich nicht genug Nutzer für das Angebot interessiert hatten. Auch bei sozialen Netzwerken sind die Kalifornier im Hintertreffen. Ihr frühzeitig gestartetes Projekt Orkut liegt in Europa und Amerika weit abgeschlagen hinter Konkurrenten wie MySpace, Facebook oder StudiVZ.
    Das neue Projekt hat jedoch mehr Potenzial. Zwar will Google die Autoren der Knol-Artikel nicht direkt bezahlen, dafür werden sie aber an den Werbe-Erlösen der Plattform beteiligt. Wer einen besonders gefragten Artikel schreibt, kann Monat für Monat mit entsprechenden Einnahmen rechnen. Anders als bei Wikipedia sollen die Artikel keine Gemeinschaftsarbeit sein. Zwar kann jeder Nutzer Verbesserungsvorschläge machen und Artikel bewerten, für die Texte ist aber immer nur ein Autor verantwortlich. Zu einem bestimmten Thema können mehrere Autoren mit ihren Texten konkurrieren. Spannend ist auch die Verknüpfung mit der Suchplattform, dem Kern-Geschäft von Google. So sollen Knol-Artikel direkt in die Suchergebnis-Listen der Kalifornier einfließen. Für die Autoren bedeutet dies eine hohe Reputation, wenn ihr Artikel bei der Internet-Suche ganz oben steht. Für die Google-Ingenieure bietet die Integration andere Vorteile: Anhand der Knol-Texte könnten sie die Qualität der Suchergebnisse insgesamt verbessern. Wird ein Knol-Artikel von den Nutzern gut bewertet, kann Google daraus schließen, welche Suchergebnisse besonders gefragt oder qualitativ hochwertig sind."
  10. Schlosser, H.; Leppert, G.: ¬Die Kartoffel ist ein Fremdwort : Horst Schlosser lobt importierte Begriffe (2008) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
          0.019191252 = score(doc=1418,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 1418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1418)
      0.25 = coord(1/4)
    
    Content
    "Herr Schlosser, das Goethe-Institut und der Deutsche Sprachrat haben einen Wettbewerb mit dem Titel "Das beste eingewanderte Wort" ausgeschrieben. Was ist Ihr persönlicher Favorit? Es gibt mehrere Wörter, die meiner Ansicht nach diese Auszeichnung verdient hätten. Zum Beispiel: Wein oder Kartoffel. Wein? Kartoffel? Wir dachten, Sie entscheiden sich für Outsourcing oder Assimilation. Für ein richtiges Fremdwort eben. Sehen Sie, das ist genau der Punkt. Wenn von Fremdwörtern die Rede ist, denkt jeder an solche Begriffe. Viele wissen gar nicht, dass Wein vom Lateinischen Vinum und Kartoffel vom italienischen Wort Taratopoholi stammt. Die meisten Menschen denken, das seien originär deutsche Wörter. Wir benutzen also weitaus mehr Fremdwörter, als wir glauben? Allerdings. Die deutsche Sprache hat einen Wortschatz von etwa 400 000 bis 500 000 Wörtern - was im Übrigen sehr viel ist. Rund 100 000 Begriffe sind aus anderen Sprachen eingewandert. Hilft der Wettbewerb, das Bewusstsein dafür zu stärken? Sicher, ich halte diesen Wettbewerb für eine gute Sache. Es ist wichtig zu verbreiten, dass eine Sprache nicht nur von sich selbst lebt, sondern auf Importe angewiesen ist. Natürlich droht bei solchen Sprachwettbewerben immer eine gewisse Beliebigkeit, und manch einer wählt nicht das Wort, sondern die Sache, die es beschreibt. Bei einem Wettbewerb zum schönsten Wort hätte Schokolade gute Chancen. Grundsätzlich aber macht so eine Aktion deutlich, dass die Übernahme von sprachlichen Elementen aus anderen Kulturen nichts Anrüchiges ist. Mit dieser Meinung machen Sie sich bei Menschen, die die deutsche Sprache möglichst frei von Fremdwörtern halten wollen, aber keine Freunde. Ja, deren Argumente kenne ich: Wir geben unsere Kultur - das ist im Übrigen auch ein Fremdwort - auf, wenn wir unsere Sprache aufgeben. Das ist Unsinn. Die Sprache geht nicht durch den Import von Wörtern unter, sonst wäre die deutsche Sprache seit 1200 Jahren tot. Damals hielten unendlich viele lateinische Begriffe in die deutsche Sprache Einzug. Sie sind also gegen die Eindeutschung von Fremdwörtern? Diese Initiativen haben häufig etwas Albernes. Da soll man dann Klapprechner statt Laptop sagen. Das halte ich für unsinnig. Im Übrigen ist die Idee, Fremdwörter zu übersetzen, alles andere als neu. Schon die Sprachgesellschaften im 17. Jahrhundert wollten das Wort Kloster durch Jungfernzwinger ersetzen. Hat sich nicht wirklich durchgesetzt. Sind alle derartigen Versuche gescheitert? Nein, das kann man nicht sagen. Statt Adresse sagen viele Menschen Anschrift, statt Korrespondenz ist das Wort Briefwechsel geläufig. Das ist auch sehr gut so, denn auch ich bin gegen einen unnötigen Gebrauch von Fremdwörtern. Ich finde nur, man sollte nichts dramatisieren. Es gibt durchaus Bereiche, in denen sich die besonders scharf kritisierten Anglizismen so gut wie gar nicht durchgesetzt haben. Können Sie ein Beispiel nennen? Im Rechtswesen etwa spielen die englischen Wörter so gut wie keine Rolle. Bemerkenswert ist übrigens auch, dass die Bild-Zeitung weitgehend auf Anglizismen verzichtet. Zu viel Englisch würde Leser kosten."
  11. Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 2403) [ClassicSimilarity], result of:
          0.019191252 = score(doc=2403,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 2403, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2403)
      0.25 = coord(1/4)
    
    Content
    "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
  12. Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002) 0.00
    0.004797813 = product of:
      0.019191252 = sum of:
        0.019191252 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
          0.019191252 = score(doc=4731,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.16965526 = fieldWeight in 4731, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4731)
      0.25 = coord(1/4)
    
    Abstract
    Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
    Content
    Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
  13. Röttgers, J.: ¬Eine rote Leiste verrät Datensammler : Ergänzungen im Webbrowser helfen Surfern, ihre Privatsphäre zu bewahren (2003) 0.00
    0.004645462 = product of:
      0.018581849 = sum of:
        0.018581849 = weight(_text_:und in 1245) [ClassicSimilarity], result of:
          0.018581849 = score(doc=1245,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.164268 = fieldWeight in 1245, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1245)
      0.25 = coord(1/4)
    
    Content
    "Wer online unterwegs ist, hinterlässt Spuren. Webseiten merken sich, von welcher Netzadresse mit welchem Programm zugegriffen wird. Sie senden kleine Datenpakete auf die Rechner der Surfer; die Cookie genannten Dateien ermöglichen es, Besucher beim erneuten Zugriff auf eine Seite wiederzuerkennen. Viele Angebote erfordern zudem eine Registrierung, viele geben sich dabei ziemlich neugierig. Wie groß ist das monatliche Haushaltseinkommen? Was wurde in den vergangenen Wochen gekauft? Wie viele Stunden verbringt man im Netz? Was stellen Web-Anbieter mit all den Informationen an? Wer darauf eine Antwort will; .muss sich oft durch lange Datenschutzrichtlinien kämpfen, ohne hinterher viel schlauer zu sein. Eine Technik namens P3P soll den Konsumenten helfen. Web-Anbieter teilen damit Surfern in maschinenlesbarer Form mit, was sie mit ihren persönlichen Daten anstellen. Ausgewertet werden die Angaben beispielsweise von einem Webbrowser. Das Programm kann so entscheiden, ob und zu welchen Bedingungen es Daten mit der betreffenden Seite austauscht. Ein Browser könnte etwa Cookie-Dateien nur für die Dauer eines Zugriffs akzeptieren,' wenn das für personalisierte Dienste wie Webmail sinnvoll ist, oder den Benutzer davor warnen, dass der Anbieter E-Mail-Adressen an seine Werbekunden weitergibt. Offiziell eingeführt wurde P3P im April. Daher gibt es erst eine Hand voll Programme, die den Standard unterstützen. Das bekannteste ist Microsofts Internet Explorer in der sechsten Version. Der Browser nutzt P3P, um seinem Anwender größere Freiheiten im Umgang mit Cookie-Dateien zu geben. Nach Angaben der Universität Hannover verwenden 35 Prozent der deutschen Surfer die Software. Freilich dürften die wenigsten die P3P-Option kennen; sie arbeitet eher verborgen. AT&T Privacy Bird hat sich dagegen der öffentlichen Aufklärung verschrieben. Das kleine Programm klinkt sich in die Titelleiste des Webbrowsers ein und zeigt deutlich, ob der besuchten Seite in Sachen Datenschutz zu trauen ist: Genügt sie den eigenen Voreinstellungen, färbt sich der Datenschutz-Vogel grün. Verstößt sie dagegeit, läuft er rot an. Bei Seiten ohne P3P-Informationen bleibt er gelb. ' Programme wie dieses seien "einfache Werkzeuge, um erst einmal ein Leben mit P3P zu erkunden", erklärt Marc Langheinrich von der Technischen Hochschule Zürich. Er ist Koautor der P3P Spezifikationen. Es wird noch eine ganze Weile dauern, bis man wirklich zufrieden stellende Lösungen konzipieren kann", sagt er. Doch die schönste Software bringt wenig, wenn Web-Anbieter ihre Datenschutzrichtlinien nicht in dem Format zur Verfügung stellen. In den USA beginnen die großen Web-Anbieter, sich auf P3P einzulassen; das Lycos-Portal geht als Vorbild voran. In Deutschland sieht es anders aus. Publikumslieblinge wie spiegel.de, web.de bild.de oder freenet.de bieten keine maschiilnenlesbaren Datenschutz Erklärungen an. Von den bekannten Webseiten unterstützt nur tagesschau.de P3P. Immerhin ist einigen Anbietern die Problematik bekannt. So erklärt die Comdirect-Bank auf Anfrage, man verfolge die Entwicklung, habe aber keine konkreten Pläne. Man wartet offenbar ab, bis die Surfer das Thema offensiver aufgreifen.
    So sagt Hanno Müller von Grußkarten-Anbieter edgarde: "Noch haben zu wenig Anwender einen P3P-fähigen Browser. Die,'die einen haben, wissen nicht, dass es P3P gibt und was sie damit anfangen können." Paradoxerweise sorgen die im interna tionalen Vergleich strengen deutschen Datenschutzgesetze dafür, dass sich nur wenige heimische Anbieter für P3P begeistern. In den USA sind die Vorschriften weitaus laxer. Das führte dazu, dass Firmen Datenschutz als Wettbewerbsvorteil begreifen und offensiv damit werben. Hier zu Lande sind die rechtlichen Standards höher, Unternehmen informieren ihre Kunden dafür weniger über Datenspeicherungen. Manche große Webanbieter verzichten sogar ganz auf Datenschutzhinweise; andere erklären lapidar, keine Gesetzesbrecher zu sein:. "Bei der Verwaltung ihrer Daten halten wir uns an die gesetzlichen Vorschriften." Eine Praxis, die Datenschutzbeauftragte als unzureichend ablehnen. Mehr Druck von Verbrauchern - den werde es nur geben, wenn die User mehr um die Risiken wissen, die das Surfen und Einkaufen im Netz mit sich bringen, erläutert Marc Langheinrich: "Solange sich der Bürger ausreichend von staatlichen Organen beschützt fühlt, wird da wenig Drang sein, sich seine Bücher nur von datenschutzfreundlichen Websites zu kaufen."
  14. Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004) 0.00
    0.004198086 = product of:
      0.016792344 = sum of:
        0.016792344 = weight(_text_:und in 2124) [ClassicSimilarity], result of:
          0.016792344 = score(doc=2124,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14844835 = fieldWeight in 2124, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2124)
      0.25 = coord(1/4)
    
    Content
    "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
  15. Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017) 0.00
    0.004198086 = product of:
      0.016792344 = sum of:
        0.016792344 = weight(_text_:und in 3891) [ClassicSimilarity], result of:
          0.016792344 = score(doc=3891,freq=6.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14844835 = fieldWeight in 3891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3891)
      0.25 = coord(1/4)
    
    Abstract
    Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
  16. Dietze, J.: Informationsrecherchesprache und deren Lexik : Bemerkungen zur Terminologiediskussion (1980) 0.00
    0.0041550277 = product of:
      0.01662011 = sum of:
        0.01662011 = weight(_text_:und in 32) [ClassicSimilarity], result of:
          0.01662011 = score(doc=32,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14692576 = fieldWeight in 32, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=32)
      0.25 = coord(1/4)
    
  17. Lepsky, K.: Ernst H. Gombrich : Theorie und Methode (1991) 0.00
    0.0041550277 = product of:
      0.01662011 = sum of:
        0.01662011 = weight(_text_:und in 1685) [ClassicSimilarity], result of:
          0.01662011 = score(doc=1685,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14692576 = fieldWeight in 1685, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1685)
      0.25 = coord(1/4)
    
  18. Wildemuth, B.M.; O'Neill, A.L.: Katalogrecherche nach bekannten Vorlagen : empirische Überlegungen zu nutzerorientierten Nachweisinstrumenten (1996) 0.00
    0.0041550277 = product of:
      0.01662011 = sum of:
        0.01662011 = weight(_text_:und in 3250) [ClassicSimilarity], result of:
          0.01662011 = score(doc=3250,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14692576 = fieldWeight in 3250, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3250)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.1, S.23-45
  19. Belkin, N.J.: Intelligent information retrieval : whose intelligence? (1996) 0.00
    0.0041550277 = product of:
      0.01662011 = sum of:
        0.01662011 = weight(_text_:und in 6102) [ClassicSimilarity], result of:
          0.01662011 = score(doc=6102,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14692576 = fieldWeight in 6102, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=6102)
      0.25 = coord(1/4)
    
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  20. Spinner, H.F.: ¬Die Wissensordnung : ein Leitkonzept für die dritte Grundordnung des Informationszeitalters (1994) 0.00
    0.0041550277 = product of:
      0.01662011 = sum of:
        0.01662011 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.01662011 = score(doc=3331,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.14692576 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3331)
      0.25 = coord(1/4)
    
    Imprint
    Opladen : Leske und Budrich

Authors

Languages

  • e 32
  • m 3

Types

  • a 8461
  • m 1855
  • el 869
  • x 573
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications