Search (1872 results, page 82 of 94)

  • × year_i:[2010 TO 2020}
  1. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.00762424 = product of:
      0.03049696 = sum of:
        0.03049696 = weight(_text_:und in 897) [ClassicSimilarity], result of:
          0.03049696 = score(doc=897,freq=12.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23992877 = fieldWeight in 897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=897)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  2. Welzer, H.: ¬Die smarte Diktatur : der Angriff auf unsere Freiheit (2016) 0.01
    0.00762424 = product of:
      0.03049696 = sum of:
        0.03049696 = weight(_text_:und in 4163) [ClassicSimilarity], result of:
          0.03049696 = score(doc=4163,freq=12.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23992877 = fieldWeight in 4163, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4163)
      0.25 = coord(1/4)
    
    Abstract
    Unsere Gesellschaft verändert sich radikal, aber fast unsichtbar. Wir steuern auf einen Totalitarismus zu. Das Private verschwindet, die Macht des Geldes wächst ebenso wie die Ungleichheit, wir kaufen immer mehr und zerstören damit die Grundlage unseres Lebens. Statt die Chance der Freiheit zu nutzen, die historisch hart und bitter erkämpft wurde, werden wir zu Konsum-Zombies, die sich alle Selbstbestimmung durch eine machtbesessene Industrie abnehmen lässt, deren Lieblingswort »smart« ist. Was heißt das für unsere Gesellschaft? Nach seinem Bestseller >Selbst denken< analysiert Harald Welzer in >Die smarte Diktatur. Der Angriff auf unsere Freiheit<, wie die scheinbar unverbundenen Themen von big data über Digitalisierung, Personalisierung, Internet der Dinge, Drohnen bis Klimawandel zusammenhängen. Daraus folgt: Zuschauen ist keine Haltung. Es ist höchste Zeit für Gegenwehr, wenn man die Freiheit erhalten will! Bestseller-Autor Harald Welzer legt mit >Die smarte Diktatur. Der Angriff auf unsere Freiheit< eine neue und frische Analyse der großen gesellschaftlichen Zusammenhänge in Deutschland vor, eine umfassende Diagnose der Gegenwart für alle politisch Interessierten.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    Rez. in: Mitt. VOEB 70(2017) Nr.3/4, S.390-393 (B. Ecker): "Im Großen und Ganzen ist das Buch aber enttäuschend."
  3. Lanier, J.: Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst (2018) 0.01
    0.00762424 = product of:
      0.03049696 = sum of:
        0.03049696 = weight(_text_:und in 4448) [ClassicSimilarity], result of:
          0.03049696 = score(doc=4448,freq=12.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23992877 = fieldWeight in 4448, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4448)
      0.25 = coord(1/4)
    
    Abstract
    Um .Zehn Gründe.... zu lesen, reicht ein einziger Grund: Jaron Lanier. Am wichtigsten Mahner vor Datenmissbrauch, Social-Media-Verdummung und der fatalen Umsonst-Mentalität im Netz führt in diesen Tagen kein Weg vorbei. Frank Schätzing Ein Buch, das jeder lesen muss, der sich im Netz bewegt. Jaron Lanier, Tech-Guru und Vordenker des Internets, liefert zehn bestechende Gründe, warum wir mit Social Media Schluss machen müssen. Facebook, Google & Co. überwachen uns, manipulieren unser Verhalten, machen Politik unmöglich und uns zu ekligen, rechthaberischen Menschen. Social Media ist ein allgegenwärtiger Käfig geworden, dem wir nicht entfliehen können. Lanier hat ein aufrüttelndes Buch geschrieben, das seine Erkenntnisse als Insider des Silicon Valleys wiedergibt und dazu anregt, das eigenen Verhalten in den sozialen Netzwerken zu überdenken. Wenn wir den Kampf mit dem Wahnsinn unserer Zeit nicht verlieren wollen, bleibt uns nur eine Möglichkeit: Löschen wir all unsere Accounts!
    Imprint
    Hamburg : Hoffmann und Campe
    Issue
    2. Auflage. Aus dem amerikanischen Englisch von Martin Bayer und Karsten Petersen.
  4. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.01
    0.0075343642 = product of:
      0.030137457 = sum of:
        0.030137457 = weight(_text_:und in 6) [ClassicSimilarity], result of:
          0.030137457 = score(doc=6,freq=30.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23710044 = fieldWeight in 6, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=6)
      0.25 = coord(1/4)
    
    Content
    "Ganze "230 Adressen im World Wide Web, 250 Server und 100 per E-Mail zugängliche Informationsquellen". So stand es 1995 in der "Updated Internet Services List". Die manuell zusammengetragene Adressliste, nach ihrem Urheber auch als "Yanoff-Liste" bekannt, war einer der ersten Versuche, die anschwellende Informationsflut des Internet zu kanalisieren. Aus einem dieser Verzeichnisse, das zunächst von Studenten zusammengetragen wurde, entstand kurze Zeit später mit Yahoo die Mutter aller Suchmaschinen. Die englische Wortkombination "Search Engine" ist allerdings irreführend. Denn dahinter steckt in Wahrheit eine Software, die automatisch einen Index der Internetinhalte erstellt. Denn der Fleiß einer Handvoll Studenten reichte schon bald nicht mehr aus, das sich explosionsartig ausbreitende Web auch nur ansatzweise zu erfassen.
    Keine ernsthafte Konkurrenz Damit ist die Geschichte der Suchmaschinen weitestgehend erzählt - außer, dass Yahoo praktisch keine Rolle mehr spielt. Um das Gesuchte in den Weiten des Netzes zu finden, benutzt man heute Google. Mehr als 90 Prozent aller Suchanfragen in Deutschland laufen Schätzungen zufolge über die Rechenzentren des US-Konzerns. Ernsthafte Konkurrenten? Keine. Einst erfolgreiche Dienste wie Excite, Infoseek, AltaVista oder Lycos sind längst von der Bildfläche verschwunden. Liefert nicht Google zu allen erdenklichen Suchbegriffen zigtausend Ergebnisse? Mehr, so die allgemeine Auffassung, kann sowieso kein Mensch verarbeiten. Dahinter steht der naive Glaube, Google bilde die digitale Welt in ihrer Gesamtheit ab. Oder, schlimmer noch, gar die reale Welt. Dabei könnte nichts weiter von der Realität entfernt sein, wie Dr. Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Leibniz-Universität Hannover erklärt. Denn Google entscheidet, nach welchen Kriterien die digitale Welt durchkämmt wird. Google legt fest, welche Webseiten unter den ersten zehn Ergebnissen zu einer Suche angezeigt werden. Da die Mehrheit der Nutzer ohnehin nur diese wahrnimmt, bestimmt ein einzelnes Unternehmen, welchen Ausschnitt der Wirklichkeit die Menschheit zu sehen bekommt. Und die Algorithmen, nach denen die Suchmaschine funktioniert, hält der Konzern streng unter Verschluss: "Google entscheidet, welches Wissen wahrgenommen wird, und welches nicht; was im Internet existiert und was nicht." Die Macht, die dem Konzern damit zukomme, reiche weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinaus. "Was wir hier beobachten, ist eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur", warnt der Wissenschaftler, der deshalb bereits vor Jahren "SuMa e.V.", einen "Verein für freien Wissenszugang", gegründet hat. Er setzt sich dafür ein, "globale Online-Oligopole besser zu kontrollieren". Um den freien Zugang zu dem im Internet gespeicherten Wissen für möglichst viele Menschen zu ermöglichen, sei es außerdem "von entscheidender Bedeutung, die dahinterstehende Technologie zu entwickeln und zu fördern - auch und gerade in Deutschland." Doch genau das wurde in den vergangenen zehn Jahren versäumt.
    Die Grundlage für das heutige Monopol wurde Ende der 90er-Jahre geschaffen. Damals hatten die beiden Google-Gründer Larry Page und Sergei Brin das Glück, zum richtigen Zeitpunkt mit der besten Technik aufwarten zu können. Kurz darauf führte die so genannte Dotcom-Krise zum Versiegen der Geldquellen und leitete den Niedergang der Mitbewerber ein. Ausgestattet mit frischem Geld und einer überlegenen Technologie nutze das Unternehmen die Gunst der Stunde und wuchs zu einem mittlerweile rund 25000 Mitarbeiter zählenden Konzern heran. Seitdem muss man sich in Mountain View nicht mehr großartig mit Kritik auseinandersetzen. Vom kalifornischen Hauptsitz aus wird praktisch im Alleingang über die Zukunft des Internet entschieden. So werden dem Nutzer mittlerweile personalisierte Ergebnisse angezeigt, die auf dessen bisherigen Suchanfragen beruhen. "Sie freuen sich vielleicht, dass bei dem für Sie wichtigen Suchwort ihre Homepage ganz vorn bei Google erscheint, worauf Sie Google ganz besonders toll finden", erklärt Sander-Beuermann. "Tatsächlich liegt das daran, dass Sie Ihre Homepage selber angeklickt haben. Ihr Nachbar kann völlig andere Ergebnisse erhalten." Wie diese Informationsbewertung genau funktioniere, gehöre allerdings zum Betriebsgeheimnis. Ebenso wie eine Fülle weiterer Faktoren, die eine Rolle bei der Auswahl der angezeigten Suchergebnisse spiele. So fließt auch die jeweilige geografische Position in die Zusammenstellung und Reihenfolge der angezeigten Links ein.
    Neue Entwicklungen im Netz Doch es gibt durchaus Ansätze, dem Goliath Google die Stirn zu bieten. Zu den Davids, die das versuchen, gehört Michael Schöbel. Seit 1999 betreibt er die deutsche Suchmaschine Acoon - als Gründer, Geschäftsführer und einziger Angestellter. Schöbel gibt sich jedoch keinen besonderen Illusionen hin. "Allein vom Datenumfang her kann ich mit den von Google erfassten 50 Milliarden erfassten Webseiten natürlich nicht konkurrieren." Die Erfassung koste eine Menge Geld, ebenso wie die Server, die man zum Speichern solcher Datenbestände bereitstellen müsste. Dennoch hält es der Einzelkämpfer für wichtig, "dem rein amerikanischen Blick auf die Welt eine eigene Sichtweise entgegenzusetzen." Weil Acoon auf einen vollkommen eigenständigen Suchindex setze, erhalte der Nutzer Suchergebnisse, "die gut sind, ohne dabei dem Einheitsbrei zu entsprechen." Hoffnung macht Google-Kritikern derzeit aber vor allem eine Firma, die bislang nicht unbedingt im Verdacht konterrevolutionärer Aktivitäten stand: Microsoft. Dessen Suchmaschine Bing konnte Google bereits einige Marktanteile gewinnen - freilich nicht, ohne zuvor selbst eine Reihe kleinerer Anbieter geschluckt zu haben. Auch das einst so einflussreiche Webverzeichnis Yahoo! bezieht seine Ergebnisse mittlerweile aus dem Bing-Index.
    Und natürlich schlägt Microsoft in die gleiche Kerbe wie Google. Denn auch die Bing-Suche steht ganz im Zeichen der "Individualisierung" der Ergebnisse. "Social Search" nennt sich die (noch) optionale Möglichkeit, Facebook-Einträge von Freunden als Suchkriterien zu verwenden. Schließlich, so die Meinung des Konzerns, beeinflusse der "Freunde-Effekt" die Entscheidung von Menschen in der Regel mehr als andere Faktoren. Die Entwicklung zeigt eindrucksvoll, wie schnell sich die beiden letzten Großen im Suchmaschinen-Geschäft neue Entwicklungen im Netz aneignen. Im Web 2.0 bildeten Blogs und Soziale Netzwerke bislang gewissermaßen ein demokratisches Gegengewicht zum Meinungsmonopol. Doch auch hier ist der Internet-Goliath bereits am Start. Wer sich schon immer mal gefragt hat, warum der Such-Gigant praktisch monatlich mit neuen Angeboten wie etwa Google+ aufwartet, findet hier eine Antwort. Mit dem kostenlosen Smartphone-Betriebssystem Android sicherte man sich eine gewichtige Position auf dem expandieren Markt für mobile Plattformen. Trotz ihrer momentanen Allmacht erkennen die Konzernlenker also durchaus die Gefahr, irgendwann einmal selbst vom Zug der Zeit überrollt zu werden. Für die meisten Konkurrenten kommt diese Einsicht zu spät."
  5. RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012) 0.01
    0.0073821386 = product of:
      0.029528555 = sum of:
        0.029528555 = weight(_text_:und in 331) [ClassicSimilarity], result of:
          0.029528555 = score(doc=331,freq=20.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23231003 = fieldWeight in 331, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=331)
      0.25 = coord(1/4)
    
    Abstract
    Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
    Content
    "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
    Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
    Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
  6. Theorie, Semantik und Organisation von Wissen : Proceedings der 13. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und dem 13. Internationalen Symposium der Informationswissenschaft der Higher Education Association for Information Science (HI) Potsdam (19.-20.03.2013): 'Theory, Information and Organization of Knowledge' / Proceedings der 14. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) und Natural Language & Information Systems (NLDB) Passau (16.06.2015): 'Lexical Resources for Knowledge Organization' / Proceedings des Workshops der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) auf der SEMANTICS Leipzig (1.09.2014): 'Knowledge Organization and Semantic Web' / Proceedings des Workshops der Polnischen und Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO) Cottbus (29.-30.09.2011): 'Economics of Knowledge Production and Organization' (2017) 0.01
    0.0073821386 = product of:
      0.029528555 = sum of:
        0.029528555 = weight(_text_:und in 3471) [ClassicSimilarity], result of:
          0.029528555 = score(doc=3471,freq=20.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.23231003 = fieldWeight in 3471, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3471)
      0.25 = coord(1/4)
    
    Content
    Inhalt: W. Babik, H. P. Ohly, C. Wartena, K. Weber: Theorie, Semantik und Organisation von Wissen. Einige Vorbemerkungen 1. Grundlagen der Wissensorganisation / Foundations of Knowledge Organization I. Dahlberg: Was ist Wissensorganisation? - B. Hjørland: Theories of knowledge organization - Theories of knowledge - M. Kleineberg: Der Elefant und die Blinden. Vorüberlegungen zu einer Organisation epistemischer Kontexte - W. Umstätter: Wissen - Konstrukt oder Rekonstruktion der Popperschen Welt? oder Warum sich die ISKO in International Society for Knowledge Self-Organization umbenennen sollte. - P. Jaenecke: Über die Darstellung einer deduktiven Wissenschaft als Deduktgeflecht - H. Herre, H. Benking: Formal Ontology and Principles and Prospects of Knowledge Organisation: An Axiomatic Approach 2. Wissensgewinnung / Knowledge Extraction I. Blümel: Wissen über 3D-Modelle organisieren Herausforderungen für Digitale Bibliotheken - J.-C. Lamirel: Unsupervised Multi-View Data Analysis Methods for Text - K. Schmidt, Peter Mandl, Michael Weber: Informationsverwaltung als selbst-organisierendes und kontext-basiertes System - K. U. Schulz, Levin Brunner: Vollautomatische thematische Verschlagwortung großer Textkollektionen mittels semantischer Netze - A. O. Kempf: Neue Verfahrenswege der Wissensorganisation. Eine Evaluation automatischer Indexierung in der sozialwissenschaftlichen Fachinformation - A. Böhm, C. Seifert, J. Schlötterer, M. Granitzer: Identifying Tweets from the Economic Domain
    3. Verarbeitung natürlicher Sprache / Natural Language Processing K. Eichler, A. Gabryszak: Evaluating text representations for the categorization of German customer emails - Á. Castellanos, A. García-Serrano, J. Cigarrán, E. W. De Luca: Improving the Knowledge Organization of Linguistic Resources - P. M. Fischer: Eine Datenbasis zur Beobachtung des Schreibgebrauchs im Deutschen - S. Otra, N. Singh, J. Jha: Towards Building a Lexical Ontology Resource Based on Intrinsic Senses of Words 4. Semantisches Netz / Semantic Web L. Wenige: The application of Linked Data resources for Library Recommender Systems - N. Kushwaha, O P Vyas: SemMovieRec: Extraction of Semantic Features of DBpedia for Recommender System - C. H. Marcondes: Representing and organizing scientific knowledge in biomedical articles with Semantic Web technologies - E. W. De Luca: Using Multilingual Lexical Resources for Extending the Linked Data Cloud - S. Grabsch, M. Jürgens: Der Digitale Wissensspeicher der Berlin-Brandenburgischen Akademie der Wissenschaften: Möglichkeiten und Herausforderungen der Verknüpfung heterogener geisteswissenschaftlicher Inhalte und Metadaten - L.-L. Stahn: Vocabulary Alignment für archäologische KOS
    5. Verschlagwortung / Indexing J. Ahuja: Understanding the past and present of Knowledge Organization to create the futuristic KO tools - M. Frické: Logic and Librarianship - E. Scheven: Die neue Thesaurusnorm ISO 25964 und die GND - W. Babik: Keywords as Linguistic Tools in Information and Knowledge Organization - J. Szulc: Document Management in the the Polish Central Catalogues 6. Wissensökonomie / Economics of Knowledge H. P. Ohly: Organization, Management and Engineering of Knowledge - W. Babik: The Internet as the Present-Day Agora of Information and Knowledge - D. Pietruch-Reizes: Transfer of knowledge and new technologies from science to the economy - M. Jabloun, Y. Sayeb, H. Ben Ghezala: From EA to Actor Model: Knowledge in the service of IS Reform
  7. Rest, J.: ¬Die Neuvermessung der Welt : Google maps (2012) 0.01
    0.007278887 = product of:
      0.029115548 = sum of:
        0.029115548 = weight(_text_:und in 409) [ClassicSimilarity], result of:
          0.029115548 = score(doc=409,freq=28.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.22906078 = fieldWeight in 409, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=409)
      0.25 = coord(1/4)
    
    Abstract
    Apple verbannt Google Maps von seinem iPhone und setzt auf einen eigenen Kartendienst. Es geht um ein Milliardengeschäft mit Werbung - und viel mehr.
    Content
    "Mit dem neuen iPhone greift Apple seinen schärfsten Konkurrenten Google direkt an: Es ist das erste iPhone, das fast ohne Google-Produkte auskommt - nur die Google-Suche bleibt noch übrig. Der herbste Schlag für den Internetkonzern: die Entfernung von Google Maps. Seit 2007 das erste iPhone auf den Markt kam, war dieser Dienst vorinstalliert. Stattdessen bietet Apple nun mit "Karten" einen eigenen Kartendienst an. Für Google wird das wohl bedeuten, dass die mobilen Zugriffe auf seinen Kartendienst einbrechen- ein Feld, das entscheidend für Googles Umsatz im immer wichtiger werdenden Geschäft mit mobilen Anzeigen sein soll. Mehr als die Hälfte der mobilen Zugriffe auf Google Maps soll von iPhone- und iPad-Nutzern kommen. Ihnen wird Apple nun eigene Anzeigen einblenden können. Doch für Apple ist das nur ein Nebeneffekt. Tatsächlich geht es bei der Entwicklung des eigenen Kartendienstes darum, die Zukunft des iPhones zu sichern, Apples wichtigster Einkommensquelle. Denn digitale Kartentechnologie ist die entscheidende Schnittstelle zwischen virtuellem Raum und realer Welt. "Ortsbasierte Dienstleistungen", sagt Analystin Annette Zimmermann vom führenden IT-Marktforschungsinstitut Gartner, "sind zu wichtig als dass Apple sich dabei auf die Karten des unmittelbaren Konkurrenten Google als Basis verlassen könnte." Nur indem unzählige lokale Daten verknüpft und auf den Standort und die Anfragen des Nutzers bezogen werden, kann ein Smartphone zu dem allumfassenden Alltagsassistenten werden wie es Apple beim iPhone mit seiner Software Siri vorschwebt: etwa warnen, dass der Nutzer früher zu einem Meeting aufbrechen muss, da sich ein Stau gebildet hat oder ein Bus ausfällt. Siri-Konkurrent Google Now kann auf Android-Smartphones solche Aufgaben bereits erledigen. Die bessere digitale Abbildung und das vollkommenere Verständnis der physischen Begebenheiten wird so zu einem Schlüsselkriterium dafür, welche Smartphones den Markt künftig dominieren werden.
    Kartografen-Armee bei Google Google setzt daher eine ganze Armee von Spezialisten auf die Entwicklung seiner Karten an. Branchenberichten zufolge arbeiten mehr als tausend Google-Vollzeitkräfte an den Kartendienstleistungen, hinzu kommen noch rund 6 000 Arbeitskräfte von externen Firmen. Apple müsste seine Beschäftigtenzahl um mehr als die Hälfte erhöhen, um eine vergleichbare Abteilung aufzubauen. Für die Karten-App setzt Apple stattdessen auf die Dienstleistung von anderen Unternehmen. Wichtigster Kartenlieferant ist Tomtom. Das holländische Navigationsunternehmen ist neben Google und der von Nokia übernommenen US-Firma Navteq einer der drei globalen Kartenmonopolisten - und der letzte, der bis zu dem Apple-Deal nicht eng mit einem der drei dominierenden Smartphone-Betriebssysteme verbunden war. Die Nokia-Geodatenfirma Navteq, an der Apple ebenfalls interessiert gewesen sein soll, liefert bereits an Windows Phone, das Smartphone-Betriebssystem von Microsoft. Bei Tomtom sind mehr als tausend Mitarbeiter damit beschäftigt, die Karten zu pflegen. Zwar basiert ihre Tätigkeit auf den Milliarden Datensätzen, darunter Bewegungsprofile der Navigatoren-Nutzer oder Fehlerhinweise, die diese manuell übermitteln. Doch Georg Fisch, der die Tomtom-Abteilung für das Kartenmaterial in Nord- und Zentraleuropa leitet, sagt: "Zur Interpretation der Daten sind Menschen unersetzlich". Mehr als 70 Angestellte sind allein damit beschäftigt, die Karten für Deutschland aktuell zu halten. Sie prüfen etwa die rund 15 000 Hinweise, die von Nutzern über geänderte Straßenführungen oder Straßennamen eingehen. Zwei Drittel müssen die Mitarbeiter aussortieren - auch schon mal, weil Anwohner ihre Straße als gesperrt melden, nur um den Durchgangsverkehr zu verringern.
    Zur Überprüfung solcher Angaben wertet Fischs Abteilung Bewegungsdaten aus, die von den Navigatoren automatisiert übermittelt werden. "Fahren etwa mehr als 97 Prozent der Wagen in eine Richtung", sagt Fisch, "kann man sicher sein, dass es sich um eine Einbahnstraße handelt." Zudem nutzt Tomtom die Bilder, die von Kameraabfahrten der wichtigen Verkehrslinien erzeugt werden. Fahrspurangaben auf Autobahnkreuzen oder Straßenschilder werden mit einem Programm ausgelesen. Tomtom-Mitarbeitern geben die gewonnen Informationen dann in die Navigationsdatenbank ein. Google erstellt auf ähnliche Weise seine eigenen Karten, seit der Konzern nach einem Experiment mit eingekauftem Material 2008 zu der Überzeugung gekommen ist, dass es nur auf diese Weise möglich sei, solche umfassenden und exakten Karten zu erschaffen, die der Konzern für die Entwicklung seiner ortsbezogenen Dienste benötigt. Google häuft dabei nur ungleich größere Datenmengen an als andere Unternehmen. Zentraler Baustein des von Google intern "Ground Truth" getauften Projektes ist Street View, das wahnwitzig anmutende Vorhaben, alle befahrbaren Straßen abzufotografieren - inzwischen selbst alpines Gelände mit Schneemobilen. Bis heute hat Google über acht Millionen Kilometer abgefilmt, eine Länge, die einer mehr als zweihundertfachen Erdumrundung entspricht. Die dabei eingesammelten 21,5 Milliarden Megabyte Bildmaterial werden von Google nicht nur nach Schildern und Fahrbahnmarkierungen durchsucht, sondern auch nach Hausnummern oder Firmenlogos. Auch vor den Toren von öffentlichen Gebäuden macht Google dabei längst nicht mehr halt: Mit schiebbaren Kameras werden etwa Museen von innen kartographiert. Die Integration von immer mehr Daten führt dazu, dass Google Maps inzwischen - zumindest in den USA - ebenso durch Ikea-Filialen und Shopping-Malls navigieren kann wie durch Flughäfen.
    Nutzer bezahlen mit Daten Solche Navigationsangebote innerhalb von Gebäudekomplexen werden für mobile Werbung an Bedeutung gewinnen, sagt Gartner-Analystin Zimmermann. "Navigiert ein Nutzer etwa durch ein Shopping-Center, können ihm Händler direkt Coupons mit Sonderangeboten auf das Smartphone schicken". Der Markt solcher ortsbasierter Werbung soll in den nächsten Jahren rasant anwachsen: Zehn Milliarden US-Dollar sollen nach Prognosen von Strategy Analytics schon in vier Jahren umgesetzt werden. Damit das passiert, müssen die Nutzer aber überzeugt werden, ihre Ortsdaten preiszugeben. Gartner-Analystin Zimmermann sagt: "Nutzer schieben ihre Bedenken schnell beiseite, sobald sie glauben, von der Preisgabe ihrer Ortsdaten zu profitieren." Ihren immer intelligenteren mobilen Assistenten werden Nutzer so mit ihren eigenen Daten bezahlen - und das umso bereitwilliger, desto perfekter diese die physische Umgebung verstehen können."
  8. Wolfangel, E.: ¬Die Grenzen der künstlichen Intelligenz (2016) 0.01
    0.0072057303 = product of:
      0.028822921 = sum of:
        0.028822921 = weight(_text_:und in 4107) [ClassicSimilarity], result of:
          0.028822921 = score(doc=4107,freq=14.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.2267586 = fieldWeight in 4107, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=4107)
      0.25 = coord(1/4)
    
    Content
    Auch überwachtes Lernen ist kaum zu kontrollieren Dabei führt der Begriff überwachtes Lernen in die Irre: Dieses Lernen ist weit weniger zu kontrollieren, als der Begriff suggeriert. Der Algorithmus entscheidet schließlich auf eigene Faust, welche Kriterien wichtig sind für die Unterscheidung. "Deshalb ist es zentral, dass der Trainingsdatensatz repräsentativ ist für die Art von Daten, die man vorhersagen will", sagt Fred Hamprecht, Professor für Bildverarbeitung an der Universität Heidelberg. Das kann allerdings kniffelig sein. So kursiert in Forscherkreisen das Beispiel eines Systems, das darauf trainiert wurde, Panzer auf Bildern zu erkennen. Der Trainingsdatensatz bestand aus Werbebildern der Herstellerfirmen von Panzern und beliebigen anderen Bildern, auf denen kein Panzer zu sehen war. Aber das System funktionierte in der Anwendung nicht - es erkannte Panzer nicht, sondern filterte stattdessen Bilder heraus, auf denen die Sonne schien. Das Problem war schnell erkannt: Auf den Werbebildern hatte ebenfalls stets die Sonne geschienen. Das Netz hatte das als Kriterium angenommen. "Falls das Beispiel nicht wahr ist, ist es zumindest schön erfunden", sagt Hamprecht. Aber nicht alle Fehler sind so einfach zu finden. "Die Frage ist immer, woher die Daten kommen", sagt Hamprecht. Ein Sensor beispielsweise altert oder verschmutzt, Bilder werden eventuell mit der Zeit dunkler. Wer kein falsches Ergebnis haben möchte, muss diese "Datenalterung" mit einrechnen - und sich ihrer dafür erstmal bewusst sein. Auch ein falsches Ergebnis wird nicht unbedingt so einfach entdeckt: Schließlich entscheiden Algorithmen nicht nur über für Menschen offensichtlich zu erkennende Dinge wie die, ob auf einem Bild ein Panzer ist.
    Neuronale Netze lernen aus Erfahrungen Angesichts immer größerer Computer und wachsender Masse an Trainingsdaten gewinnen bei der Bilderkennung so genannte neuronale Netze immer mehr an Bedeutung. "Sie sind heute die leistungsfähigsten Mustererkennungsverfahren", sagt Hamprecht. Dabei wird die Funktionsweise des menschlichen Gehirns lose nachgeahmt: Die Netze bestehen aus mehreren Lagen mit einer festzulegenden Anzahl an Neuronen, deren Verbindungen sich verstärken oder abschwächen abhängig von den "Erfahrungen", die sie machen. Solche Erfahrungen sind beispielsweise die Trainingsdaten aus dem überwachten Lernen und das Feedback, ob zu einem Trainingsdatum die richtige oder falsche Vorhersage gemacht wurde. Dank der vielen Übungsdaten lassen sich heute sehr viel größere und tiefere Netze trainieren als noch vor einigen Jahren. Während früher ein berühmter Computer-Vision-Datensatz aus 256 Bildern und sein Nachfolger aus 1000 Bildern bestand, gibt es heute Datensätze mit einer Million gelabelter Bilder - also solche, auf denen Menschen markiert haben, was darauf zu sehen ist. Aber die Netze haben auch entscheidende Haken: "Man kann bei neuronalen Netzen schwer nachvollziehen, wie sie zu einer Entscheidung kamen", sagt Hamprecht. Zudem beruhe der Entwurf neuronaler Netze auf einer großen Willkür: Bei der Entscheidung, wie viele Lagen mit wie vielen Neuronen genutzt werden sollten, beruhe vieles auf Bauchgefühl oder auf Ausprobieren. Die Entwickler testen verschiedene Varianten und schauen, wann das beste Ergebnis entsteht. Erklären können sie ihre Entscheidung nicht. "Dieses Rumprobieren gefällt mir nicht", sagt Hamprecht, "ich gehe den Dingen lieber auf den Grund.""
  9. Information der Arbeitsstelle für Standardisierung und der Digitalen Dienste der Deutschen Nationalbibliothek : Ergänzungslieferung zu den "Regeln für den Schlagwortkatalog (RSWK)" (2010) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 3934) [ClassicSimilarity], result of:
          0.02783979 = score(doc=3934,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 3934, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3934)
      0.25 = coord(1/4)
    
    Content
    Die Deutsche Nationalbibliothek hat die 7. Ergänzungslieferung zur 3., überarbeiteten und erweiterten Auflage der "Regeln für den Schlagwortkatalog (RSWK)" veröffentlicht. Diese Ergänzungslieferung steht in elektronischer Form kostenfrei zur Verfügung. ISBN 978-3-941113-24-4 <urn:nbn:de:101-2010040900> http://files.d-nb.de/pdf/rswk_7_el_20100518.pdf (7. Erg.-Lfg.) http://nbn-resolving.de/urn:nbn:de:101-2010040900 Die elektronische Gesamtausgabe wurde an den Stand der 7. Ergänzungslieferung angepasst und steht ebenso kostenfrei zur Verfügung. ISBN-978-3-941113-25-1 <urn:nbn:de:101-2010040913> http://files.d-nb.de/pdf/rswk_gesamtausgabe_stand_7e1_2010.pdf (Grundwerk) http://nbn-resolving.de/urn:nbn:de:101-2010040913 Bei der 7. Ergänzungslieferung handelt es sich in erster Linie um Änderungen aufgrund der 6. Ergänzungslieferung der RSWK. Die Revision dieser grundlegenden Paragrafen hat viele weitere Änderungen im Regelwerk nach sich gezogen. Die geänderten Paragrafen 13-15 RSWK haben zu einer deutlichen Verschlankung des Regelwerks geführt. Außerdem wurden Korrekturen aufgrund der geänderten RAK-Musik in den RSWK-Paragrafen zu Musikalien, die auf RAK-Musik basieren, nachgeführt. Der § 715 wurde gemäß einer bereits im Mai 2007 getroffenen Entscheidung angepasst. Die Expertengruppe Sacherschließung hat die Änderungen an den RSWK auf ihrer Sitzung am 2. Februar 2010 beschlossen und anschließend dem Standardisierungsausschuss vorgelegt. Der Standardisierungsausschuss hat in einem Umlaufverfahren im April 2010 einer Veröffentlichung und Inkraftsetzung zugestimmt. Die Papierausgabe der 7. Ergänzungslieferung ist zum Preis von EUR 14,00 zzgl. Versandkosten erhältlich. ISBN 978-3-941113-26-8 Ebenso wie die 3. Auflage des Grundwerks auf dem Stand der 7. Ergänzungslieferung zum Preis von EUR 60,00 zzgl. Versandkosten. ISBN 978-3-941113-27-5 Bestellungen der beiden Ausgaben richten Sie bitte an: Deutsche Nationalbibliothek, Digitale Dienste,Adickesallee 1,60322 Frankfurtam Main,Telefon:+49-69-15 25 -16 34, Fax: +49-69-15 25-16 36, E-Mail: [email protected]
  10. Innovations in information retrieval : perspectives for theory and practice (2011) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 1757) [ClassicSimilarity], result of:
          0.02783979 = score(doc=1757,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 1757, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1757)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 64(2911) H.3/4, S.547-553 (O. Oberhauser): "Dieser mit 156 Seiten (inklusive Register) relativ schmale Band enthält sieben mit dem Gütesiegel "peer-reviewed" versehene Beiträge namhafter Autoren zu "research fronts" auf dem Gebiet des Information Retrieval (IR) - ein Begriff, der hier durchaus breit verstanden wird. Wie die Herausgeber Allen Foster und Pauline Rafferty - beide aus dem Department of Information Studies an der Aberystwyth University (Wales) - in ihrer Einleitung betonen, sind Theorie und Praxis der Wissensorganisation im Internet- Zeitalter nicht mehr nur die Domäne von Informationswissenschaftlern und Bibliotheksfachleuten, sondern auch von Informatikern, Semantic-Web-Entwicklern und Wissensmanagern aus den verschiedensten Institutionen; neben das wissenschaftliche Interesse am Objektbereich ist nun auch das kommerzielle getreten. Die Verarbeitung von Massendaten, die Beschäftigung mit komplexen Medien und die Erforschung der Möglichkeiten zur Einbeziehung der Rezipienten sind insbesondere die Aspekte, um die es heute geht. ..." Weitere Rez. in: Library review 61(2012) no.3, S.233-235 (G. Macgregor); J. Doc. 69(2013) no.2, S.320-321 (J. Bates)
  11. Riva, P.; Zumer, M.: Introducing the FRBR library reference model (2015) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 2094) [ClassicSimilarity], result of:
          0.02783979 = score(doc=2094,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 2094, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2094)
      0.25 = coord(1/4)
    
    Content
    Paper presented at: IFLA WLIC 2015 - Cape Town, South Africa in Session 207 - Cataloguing. Vgl. den Kommentar von H. Wiesenmüller [Mail vom 25.06.2015]: "hier etwas höchst Spannendes - eine knappe Darstellung des konsolidierten FR-Modells, auf das wir schon so lange warten, und das im kommenden Jahr in das weltweite Begutachtungsverfahren gehen soll: http://library.ifla.org/1084/. Ich muss das Paper selbst auch erst in Ruhe lesen, sehe aber beim schnellen Durchblättern mit Freude bestätigt, dass die Gruppe-3-Entitäten aus FRBR tatsächlich abgeschafft werden. Die FRSAD-Entität "Thema" (die für alles stehen kann, was Thema eins Werks ist) wird umgetauft in "Res" (von lateinisch "res", Sache) und steht für "any entity in the universe of discourse". Die Entitäten der Gruppe 2 heißen jetzt zusammenfassend "Agent" und teilen sich auf in "Person" und "Group", wobei letzteres Körperschaften und Familien umfasst. Neu eingeführt wird "Time-span". Auf den ersten Blick scheint das jedenfalls alles ganz gut durchdacht zu sein."
  12. Lehmann, M.: Neue Tools für die Online-Recherche : EU-Projekt EEXCESS veröffentlicht vier neue Prototypen (2015) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 2324) [ClassicSimilarity], result of:
          0.02783979 = score(doc=2324,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 2324, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=2324)
      0.25 = coord(1/4)
    
    Abstract
    Mitteilung an Inetbib vom 17.11.2015: "die EEXCESS <http://www.eexcess.eu/>-Projektpartner, darunter auch die ZBW - Leibniz Informationszentrum Wirtschaft, stellen vier Prototypen für die personalisierte Daten- und Literaturrecherche vor. Ziel der neuen Software ist es, dem Nutzer bei der wissenschaftlichen Arbeit genau die Spezialressourcen zugänglich zu machen, die zu seinem Profil und zu seinem aktuellen Suchverhalten passen. Dazu wurden neuartige Empfehlungstechnologien entwickelt. Das EU-Projekt EEXCESS befasst sich seit Anfang 2013 mit neuen Methoden der Informationsbereitstellung im Internet. Prof. Dr. Klaus Tochtermann, Direktor der ZBW: "Ich freue mich, dass wir nach dreijähriger Forschungsarbeit diese neuen Recherchewerkzeuge zugänglich machen können. Wir läuten damit einen grundsätzlichen Paradigmenwechsel ein: Bringt die Inhalte zu den Nutzern, nicht die Nutzer zu den Inhalten!" Über ein Userinterface, das in den Google-Chrome-Browser, in den Google-Docs-Editor, in die Blogsoftware WordPress oder auch in das Lernmanagementsystem Moodle integriert werden kann, erhalten die Nutzerinnen und Nutzer automatisch auf sie persönlich zugeschnittene Empfehlungen aus kulturhistorischen Datenbanken wie www.europeana.eu <http://www.europeana.eu> oder auch aus wissenschaftlichen Literaturdatenbanken wie www.mendeley.com <http://www.mendeley.com> (wissenschaftliche Aufsätze) oder www.econbiz.de <http://www.econbiz.de> (wirtschaftswissenschaftliche Literatur). Diese Vorschläge können sie dann bei Bedarf beispielsweise direkt als Referenzen in ihre Texte einbinden. Die Anzahl der an die Software angeschlossenen Datenbanken wird laufend erweitert. Nach einer ersten Beta-Phase im letzten Jahr stehen nun neue Versionen der Prototypen zum kostenlosen Download bereit. Die Links sind auf www.eexcess.eu <http://www.eexcess.eu> zu finden. An dem Forschungsprojekt beteiligt sind insgesamt zehn internationale Projektpartner, darunter die ZBW - Leibniz Informationszentrum Wirtschaft <http://www.zbw.eu/>. Hier wurde das Plug-In für die Blogsoftware WordPress maßgeblich mitentwickelt. Blogger können damit, noch während sie ihren Post verfassen, nach geeigneten Referenzen oder auch Bildern suchen. Zudem kann die ZBW mit ihrer großen Online-Nutzerbasis eine sehr gute Testumgebung für die verschiedenen Tools bieten. Einzelne Visualisierungselemente, die im Projekt entwickelt wurden, kommen zukünftig auch im ZBW-Rechercheportal EconBiz zum Einsatz und können dort getestet werden. Darüber hinaus werden EconBiz-Inhalte über die EEXCESS-Module auch in beliebige andere Umgebungen eingebunden. Die weiteren Projektpartner kommen aus Österreich, Großbritannien, Frankreich, der Schweiz und Deutschland. Die wissenschaftliche Leitung hat Professor Michael Granitzer von der Universität Passau, die allgemeine Projektleitung liegt beim Forschungsinstitut Joanneum Research aus Graz. Das Projektvolumen beträgt insgesamt ca. 6,9 Millionen Euro, Projektlaufzeit ist noch bis Juli 2016.
  13. Eggers, D.: ¬Der Circle : Roman (2015) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 3134) [ClassicSimilarity], result of:
          0.02783979 = score(doc=3134,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 3134, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3134)
      0.25 = coord(1/4)
    
    Abstract
    Huxleys schöne neue Welt reloaded: Die 24-jährige Mae Holland ist überglücklich. Sie hat einen Job ergattert in der hippsten Firma der Welt, beim »Circle«, einem freundlichen Internetkonzern mit Sitz in Kalifornien, der die Geschäftsfelder von Google, Apple, Facebook und Twitter geschluckt hat, indem er alle Kunden mit einer einzigen Internetidentität ausstattet, über die einfach alles abgewickelt werden kann. Mit dem Wegfall der Anonymität im Netz - so ein Ziel der »weisen drei Männer«, die den Konzern leiten - wird die Welt eine bessere. Mae stürzt sich voller Begeisterung in diese schöne neue Welt mit ihren lichtdurchfluteten Büros und High-Class-Restaurants, wo Sterne-Köche kostenlose Mahlzeiten für die Mitarbeiter kreieren, wo internationale Popstars Gratis-Konzerte geben und fast jeden Abend coole Partys gefeiert werden. Sie wird zur Vorzeigemitarbeiterin und treibt den Wahn, alles müsse transparent sein, auf die Spitze. Doch eine Begegnung mit einem mysteriösen Kollegen ändert alles.
    Issue
    Aus dem Amerikan. von Ulrike Wasel und Klaus Timmermann.
  14. RDA Toolkit (4) : Dezember 2017 (2017) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 4283) [ClassicSimilarity], result of:
          0.02783979 = score(doc=4283,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 4283, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=4283)
      0.25 = coord(1/4)
    
    Abstract
    Am 12. Dezember 2017 ist das neue Release des RDA Toolkits erschienen. Dabei gab es, aufgrund des 3R-Projekts (RDA Toolkit Restruction and Redesign Project), keine inhaltlichen Änderungen am RDA-Text. Es wurden ausschließlich die Übersetzungen in finnischer und französischer Sprache, ebenso wie die dazugehörigen Policy statements, aktualisiert. Für den deutschsprachigen Raum wurden in der Übersetzung zwei Beziehungskennzeichnungen geändert: Im Anhang I.2.2 wurde die Änderung von "Sponsor" zu "Träger" wieder rückgängig gemacht. In Anhang K.2.3 wurde "Sponsor" zu "Person als Sponsor" geändert. Außerdem wurde die Übersetzung der Anwendungsrichtlinien (D-A-CH AWR) ins Französische aktualisiert. Dies ist das vorletzte Release vor dem Rollout des neuen Toolkits. Das letzte Release im Januar/Februar 2018 wird die norwegische Übersetzung enthalten. Im Juni 2018 wird das RDA Toolkit ein Relaunch erfahren und mit einer neuen Oberfläche erscheinen. Dieser beinhaltet ein Redesign der Toolkit-Oberfläche und die inhaltliche Anpassung des Standards RDA an das Library Reference Model (IFLA LRM) sowie die künftige stärkere Ausrichtung auf die aktuellen technischen Möglichkeiten. Zunächst wird im Juni 2018 die englische Originalausgabe der RDA in der neuen Form erscheinen. Alle Übersetzungen werden in einer Übergangszeit angepasst. Hierfür wird die alte Version des RDA Toolkit für ein weiteres Jahr zur Verfügung gestellt. Der Stand Dezember 2017 der deutschen Ausgabe und die D-A-CH-Anwendungsrichtlinien bleiben bis zur Anpassung eingefroren. Nähere Information zum Rollout finden Sie unter dem folgenden Link<http://www.rdatoolkit.org/3Rproject/SR3>. [Inetbib vom 13.12.2017]
    "das RDA Steering Committee (RSC) hat eine Verlautbarung<http://www.rda-rsc.org/sites/all/files/RSC-Chair-19.pdf> zum 3R Project und dem Release des neuen RDA Toolkits am 13. Juni 2018 herausgegeben. Außerdem wurde ein neuer Post zum Projekt auf dem RDA Toolkit Blog veröffentlicht "What to Expect from the RDA Toolkit beta site"<http://www.rdatoolkit.org/3Rproject/Beta>. Die deutsche Übersetzung folgt in Kürze auf dem RDA-Info-Wiki<https://wiki.dnb.de/display/RDAINFO/RDA-Info>. Für den deutschsprachigen Raum wird das Thema im Rahmen des Deutschen Bibliothekartags in Berlin im Treffpunkt Standardisierung am Freitag, den 15. Juni aufgegriffen. Die durch das 3R Project entstandenen Anpassungsarbeiten für den DACH-Raum werden im Rahmen eines 3R-DACH-Projekts<https://wiki.dnb.de/x/v5jpBw> in den Fachgruppen des Standardisierungsausschusses durchgeführt. Für die praktische Arbeit ändert sich bis zur Durchführung von Anpassungsschulungen nichts. Basis für die Erschließung bleibt bis dahin die aktuelle Version des RDA Toolkits in deutscher Sprache." [Mail R. Behrens an Inetbib vom 11.06.2018].
  15. Rötzer, F.: Umgekehrter Turing-Test : Welches Gesicht ist real? (2019) 0.01
    0.0069599473 = product of:
      0.02783979 = sum of:
        0.02783979 = weight(_text_:und in 5262) [ClassicSimilarity], result of:
          0.02783979 = score(doc=5262,freq=10.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.219024 = fieldWeight in 5262, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5262)
      0.25 = coord(1/4)
    
    Content
    Fotografie wurde seit ihrem Beginn wegen ihrer Entsubjektivierung gefeiert. Im Unterschied zur Malerei von der Bildherstellung durch den Apparat und die Lichtmalerei ersetzt wird. Deswegen wurde Fotografie als objektives Medium verherrlicht. Was von dem Objektiv aufgenommen wurde, soll es da auch gegeben haben. Der Druck auf den Auslöserknopf setzte die Wahrheitsbildgebung in Kraft, auch wenn der Ausschnitt, die Belichtung oder die Schärfe die Darstellung der Szene verändert. Mit der digitalen Fotografie hat sich das Misstrauen in das fotografische Bild extrem verstärkt - zu Recht. Zwar konnten auch schon zuvor Bilder manipuliert werden, nicht nur mit Nachbearbeitung, sondern auch, was überhaupt aufgenommen und wie das Bild beschrieben wird, digital ist aber das Foto bestenfalls Ausgangsbasis für Verabeitungen. Mit Mitteln der Künstlichen Intelligenz lassen sich fotorealistische Fakes noch leichter bewerkstelligen. Ein Bild ist kein Beweis für etwas Wirkliches mehr, sondern nur noch ein - auch bewegtes - Bild, das ebenso wenig oder viel Glaubwürdigkeit hat wie beispielsweise ein Text. Vertrauen muss in die Quelle gesetzt werden, die Bilder oder Texte produziert und verbreitet. Deepfakes nennt man fotorealistische Bilder und Videos, die manipuliert sind. Das Problem ist, dass diese immer leichter herstellbaren verfälschten Bilder auch als Belege für politische Zwecke verwendet werden können. Noch immer glauben viele traditionsverhaftet eher scheinbar objektiv generierten Bildern als etwa Texten. Die seit Februar existierende Website ThisPersonDoesNotExist.com zeigt, wie leicht wir getäuscht werden können. Mit der Hilfe des KI-Algorithmus StyleGAN von Nvidia wird hier demonstriert, wie täuschend realistische Bilder von Personen erzeugt werden können, die es nicht gibt. Dabei konkurrieren gewissermaßen zwei neuronale Netze, die mit Bildern von Gesichtern von Prominenten und von Menschen auf Flickr gefüttert wurden, gegeneinander an.
  16. Stock, W.G.: Informationelle Städte und Informationswissenschaft (2011) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 4510) [ClassicSimilarity], result of:
          0.026955761 = score(doc=4510,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 4510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4510)
      0.25 = coord(1/4)
    
    Abstract
    Informationelle Städte sind die prototypischen Metropolen der Wissensgesellschaft. Einige sind derzeit im Entstehen (wie beispielsweise London oder New York), andere haben bereits einen beträchtlichen Reifegrad erreicht (etwa in Singapur oder Dubai). Jede Gesellschaftsepoche bringt typische Städte hervor. Denken wir an die Industriegesellschaft, so fällt vielen unweigerlich Manchester oder in Deutschland das Ruhrgebiet in der ersten Hälfte des 20. Jahrhunderts ein, betrachten wir die Dienstleistungsgesellschaft, so wird die Wahl beispielsweise auf New Yorks Manhattan oder auf Düsseldorf fallen. Es ist die These aufgestellt worden, dass Städte und Regionen, die den Übergang zur Wissensgesellschaft nicht schaffen, als "economic deadlands" enden werden. Angesichts eines solchen Szenarios scheint es angebracht, dass die Verantwortlichen der Städte dafür Sorge tragen, die Weichen für die richtige Entwicklung frühzeitig zu stellen. Doch was heißt "richtige Entwicklung"? Wie werden die Städte der Wissensgesellschaft aussehen? Wie kann man deren Entwicklung vorantreiben? Gibt es Risiken? Ist die informationelle Stadt wirklich erstrebenswert? Hierzu möchten die Artikel in diesem Themenheft erste Antworten geben. Es gibt bereits eine Fülle an Literatur zu Städten der Wissensgesellschaft. Zu Beginn müssen wir allerdings feststellen, dass es viele Konzeptionen mit unterschiedlicher Terminologie gibt, die durchaus an eine babylonische Sprachverwirrung erinnern. Dies betrifft sowohl den Begriff "Wissensgesellschaft" als auch den der "informationellen Städte".
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.65-67
  17. Knitel, M.: ¬The application of linked data principles to library data : opportunities and challenges (2012) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 599) [ClassicSimilarity], result of:
          0.026955761 = score(doc=599,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 599, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=599)
      0.25 = coord(1/4)
    
    Abstract
    Linked Data hat sich im Laufe der letzten Jahre zu einem vorherrschenden Thema der Bibliothekswissenschaft entwickelt. Als ein Standard für Erfassung und Austausch von Daten, bestehen zahlreiche Berührungspunkte mit traditionellen bibliothekarischen Techniken. Diese Arbeit stellt in einem ersten Teil die grundlegenden Technologien dieses neuen Paradigmas vor, um sodann deren Anwendung auf bibliothekarische Daten zu untersuchen. Den zentralen Prinzipien der Linked Data Initiative folgend, werden dabei die Adressierung von Entitäten durch URIs, die Anwendung des RDF Datenmodells und die Verknüpfung von heterogenen Datenbeständen näher beleuchtet. Den dabei zu Tage tretenden Herausforderungen der Sicherstellung von qualitativ hochwertiger Information, der permanenten Adressierung von Inhalten im World Wide Web sowie Problemen der Interoperabilität von Metadatenstandards wird dabei besondere Aufmerksamkeit geschenkt. Der letzte Teil der Arbeit skizziert ein Programm, welches eine mögliche Erweiterung der Suchmaschine des österreichischen Bibliothekenverbundes darstellt. Dessen prototypische Umsetzung erlaubt eine realistische Einschätzung der derzeitigen Möglichkeiten von Linked Data und unterstreicht viele der vorher theoretisch erarbeiteten Themengebiete. Es zeigt sich, dass für den voll produktiven Einsatz von Linked Data noch viele Hürden zu überwinden sind. Insbesondere befinden sich viele Projekte derzeit noch in einem frühen Reifegrad. Andererseits sind die Möglichkeiten, die aus einem konsequenten Einsatz von RDF resultieren würden, vielversprechend. RDF qualifiziert sich somit als Kandidat für den Ersatz von auslaufenden bibliographischen Datenformaten wie MAB oder MARC.
  18. Sen, W.: Social Media Measurement : Methoden zur automatischen Reichweitenmessung von Beiträgen in Webforen (2013) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 993) [ClassicSimilarity], result of:
          0.026955761 = score(doc=993,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 993, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=993)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Werk beschäftigt sich mit der Erstellung eines Konzepts zur automatischen Messung von Reichweiten einzelner Postings in Socual Media mit dem Schwerpunkt Webforen. Die wesentliche Fragestellugn ist: Kann man automatisch auswerten und aufzeigen, wann ein Beitrag in einem Webforum eine hohe Reichweite erreicht hat oder erreichen wird? Die Ergebnisse sind Methoden, die solche Messungen automatisch vornehmen können, ohne dass Nachrichten von einem Menschen oder von einer Maschine intellektuell oder automatisch gelsesen werden müssen. Hintergrund dieses Vorgehens ist der, dass in Social Media eine sehr hohe Anzahl von User Generated Content zu verschidenen Themen vorhanden ist. Im weiteren Verlauf dieser Arbeit wird vor allem auch aufgezeigt, wie ein solches Konzept technisch umsetzbar ist. Daher werden Inhalte von Webforen zunächst aufbereitet, um dann die hier vorgestellten Methoden mit Hilfe einer speziellen Software darauf anzuwenden. Diese Erkenntnis führt dazu, dass sich Unternehmen aus einer großen Anzahl von Beiträgen im Social Web diejenigen anzeigen lassen können, die das Potenzial haben, eine hohe Reichweite zu erreichen oder bereits erreicht haben. Das würde bedeuten, dass beipsielsweise Trends und Issues frühzeitig von Unternehmen erkannt werden können. Außerdem erleichtert diese Methode Marktforschern und anderen Zielgruppen "die Suche nach der Nadel im Heuhaufen".
  19. Hummel, P.: Millionen Fachartikel illegal im Netz verfügbar (2016) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 2871) [ClassicSimilarity], result of:
          0.026955761 = score(doc=2871,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 2871, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2871)
      0.25 = coord(1/4)
    
    Abstract
    Die Online-Plattform Sci-Hub überwindet die Paywalls der Verlage und baut eine riesige "Schattenbibliothek" der Wissenschaft auf. Auch Gerichte können sie bislang nicht stoppen. Das hatte sich Elsevier sicherlich anders vorgestellt. Der große Wissenschaftsverlag hat im Juni 2015 Klage gegen die Online-Plattformen Sci-Hub und LibGen eingereicht. Der Grund: Dort war eine riesige Anzahl akademischer Publikationen frei und kostenlos zugänglich gemacht worden. Sci-Hub bot Nutzern Zugriff auf Millionen Veröffentlichungen, viele davon urheberrechtlich geschützt. Seit nun letzte Woche die Website Bigthink.com ausführlich über das Verfahren gegen Sci-Hub vor einem US-Bundesbezirksgerichts in New York berichtet hat, verbreitet sich die Nachricht vom "Pirate Bay für die Wissenschaft" in den sozialen Netzwerken rasant. Eine bessere Werbemaßnahme als das Gerichtsverfahren hätte sich Sci-Hub kaum wünschen können. Elsevier ist einer der größten akademischen Verlage der Welt. Nach Presseberichten macht das Unternehmen mit seinen mehr als 2200 Journalen einen jährlichen Reinerlös von über einer Milliarde Dollar. Doch es sieht seine Geschäfte offenbar durch Sci-Hub bedroht. Mit aktuell mehr als 49 Millionen Veröffentlichungen, die 35 Terabyte an Daten umfassen, wie der (nicht verifizierte) Twitter-Account @Sci_Hub schreibt, umfasst die "Schattenbibliothek" wohl eine der größten je vorhandenen Sammlungen akademischer Literatur.
  20. Meister, A.: Projekt "ANISKI" : Wie der BND mit 150 Millionen Euro Messenger wie WhatsApp entschlüsseln will (2016) 0.01
    0.0067389403 = product of:
      0.026955761 = sum of:
        0.026955761 = weight(_text_:und in 3265) [ClassicSimilarity], result of:
          0.026955761 = score(doc=3265,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.21206908 = fieldWeight in 3265, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3265)
      0.25 = coord(1/4)
    
    Content
    "Am Freitag hat der Bundestag den Haushalt für 2017 beschlossen. Der BND bekommt nächstes Jahr 807 Millionen Euro, zwölf Prozent mehr als dieses Jahr. Bundeskanzlerin Merkel sagte gestern: "Circa eine halbe Milliarde Euro werden jetzt und in den kommenden Jahren in technische Entwicklungen investiert, damit der BND mit den heutigen Anforderungen auf dem Gebiet [der Modernisierung] wirklich Schritt halten kann." Wofür genau der BND diesen Geldregen ausgibt, wird nicht veröffentlicht - das ist geheim. Der Rechercheverbund NDR, WDR und Süddeutsche Zeitung berichtete im September, dass 21,5 Millionen Euro dafür geplant sind, verschlüsselte Kommunikationsdienste wie Instant-Messenger besser überwachen zu können. Wir haben jetzt Dokumente erhalten, aus denen hervorgeht, dass der BND für das Knacken von Verschlüsselung ganze 150 Millionen Euro ausgeben will, dieses Jahr 5,4 Millionen und nächstes Jahr schon knapp 16 Millionen Euro. Das steht im "geheim" eingestuften Haushaltsposten für das neue Projekt "ANISKI", den wir an dieser Stelle wie gewohnt in Volltext veröffentlichen.

Languages

  • d 1630
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 278
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications