Search (1873 results, page 23 of 94)

  • × year_i:[2010 TO 2020}
  1. Digitale Zukunft: Lernen. Forschen. Wissen : Die Digitalstrategie des BMBF (2019) 0.01
    0.012203691 = product of:
      0.048814762 = sum of:
        0.048814762 = weight(_text_:und in 375) [ClassicSimilarity], result of:
          0.048814762 = score(doc=375,freq=34.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40413946 = fieldWeight in 375, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=375)
      0.25 = coord(1/4)
    
    Abstract
    Die Digitalisierung so gestalten, dass sie den Menschen dient - das ist Ziel unserer Digitalisierungsstrategie.Wie können wir uns die Bildung der Zukunft vorstellen? Ich denke an Leh-rer, die Kinder in der ersten Schulstunde in den Wald mitnehmen, um Käfer zu sammeln; die ihnen in der zweiten Stunde das Insektensterben erläutern, unterstützt durch Bilder und Grafiken am Smartboard; und die in der dritten Stunde mit Lernprogrammen überprüfen, was jedes einzelne Kind verstanden hat und wo noch einmal nachgehakt werden muss. Wie können wir uns die Medizin der Zukunft vorstellen? Ich denke an die Ärztin, die sich Zeit für ihre Patienten nimmt; die Untersuchungsergebnisse in den Computer eingibt, der sie mit anderen Fällen vergleicht und daraus Rückschlüsse zieht; die Künstliche Intelli-genz nutzt, um die individuell auf den einzelnen Patienten zugeschnittene Therapie zu finden; und die sie mit dem Patienten bespricht und abstimmt.Wie können wir uns die Mobilität der Zukunft vorstellen? Ich denke an die ältere Dame, die per Smartphone das autonom fahrende Auto vor ihr Haus auf dem Land bestellt; die damit zum Bahnhof fährt; die dann den Zug in die Großstadt nimmt, um schließlich mit dem Flugtaxi direkt vor die Haustür ihres Enkels zu fliegen. In meiner Zukunftsvision verbessern digitale Technologien und Möglichkeiten unser Leben. Zugleich stehen wir vor großen Herausforderungen: Wie garantieren wir unseren Lebensstandard in Zeiten wach-senden globalen Wettbewerbs? Wie schaffen wir neue Arbeitsplätze, wenn alte verloren gehen? Wie schützen wir unsere eigenen Daten und unsere Privatsphäre? Antworten auf diese Fragen geben wir mit unserer Digitalstrategie.Mit unserer Digitalstrategie zeigen wir, wie wir die Chancen entwickeln und uns offensiv den Herausforderungen stellen: Wir nutzen unsere Strategie für Künstliche Intelligenz, um die Datensicherheit und den Schutz der Privat-sphäre zu stärken. Wir fördern Forschung und Entwicklung von KI-Anwendungen zum Schutz der Verbraucherin-nen und Verbraucher. Wir haben die nationale Dekade gegen Krebs ausgerufen, weil wir große Potenziale moderner Technologien bei der Krebsprävention erkannt haben. Mit dem DigitalPakt wollen wir nachwachsende Generatio-nen zu einem eigenverantwortlichen Umgang mit digitalen Neuerungen befähigen. Der MINT-Aktionsplan legt die Grundlage, damit Deutschland in Wissenschaft, Forschung und Innovation weiterhin zur Spitze gehört.Unsere Digitalstrategie verstehen wir als dynamischen Prozess im Sinne des offenen Dialogs, um gemeinsam den Herausforderungen des digitalen Wandels zu begegnen. Die Menschen stehen im Mittelpunkt. Ich bin überzeugt, mit Hilfe von Bildung und Forschung bereiten wir sie auf veränderte Lebens- und Arbeitsbedingungen vor, stärken die Innovationskraft unserer Wirtschaft und sichern damit unseren Wohlstand. (A. Karliczec)
    Editor
    Bundesministerium für Bildung und Forschung
  2. Balzer, D.; Fischer, B.K.; Kett, J.; Laux, S.; Lill, J.M.; Lindenthal, J.; Manecke, M.; Rosenkötter, M.; Vitzthum, A.: ¬Das Projekt "GND für Kulturdaten"; (GND4C) (2019) 0.01
    0.012203691 = product of:
      0.048814762 = sum of:
        0.048814762 = weight(_text_:und in 721) [ClassicSimilarity], result of:
          0.048814762 = score(doc=721,freq=34.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40413946 = fieldWeight in 721, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=721)
      0.25 = coord(1/4)
    
    Abstract
    Die zunehmende Präsenz von Museen, Archiven, Forschungs- und anderen Kulturgut verwahrenden Einrichtungen mit ihren Sammlungsobjekten im Internet verstärkt das Bedürfnis nach Vernetzung der Daten. Eine Voraussetzung für die semantische Verknüpfung von Datensätzen sind gemeinsam verwendete Normdaten. Die Gemeinsame Normdatei (GND), geführt von der Deutschen Nationalbibliothek, ist ein weithin anerkanntes Vokabular für die Beschreibung und das Information­Retrieval in der Bibliothekswelt. Veröffentlicht als Linked Open Data, unterstützt die GND semantische Interoperabilität und Nachnutzung von Daten. Objekte aus verschiedenen Häusern können zusammen aufgefunden werden und disziplinenübergreifende Forschung wird erleichtert. Doch um die GND sparten­ und fächerübergreifend öffnen zu können, muss sie an die neuen Anforderungen angepasst und aktiv zwischen den Communities geteilt werden. In den vier Teilen des Beitrags geben Mitarbeiterinnen und Mitarbeiter des DFG­geförderten Projekts "GND für Kulturdaten" (GND4C) einen Einblick in den Stand der Untersuchungen, welche konzeptuellen Veränderungen erforderlich sein werden und wo sich die GND bereits heute als flexibel genug für die Wünsche der neuen Anwendungen erweist.
    Der erste Teil des Beitrags erläutert Ziel und Vorgehensweise des Projektes in vier thematischen Schwerpunkten: Organisationsstruktur des GND­Netzwerks, Datenmodell und Regelwerk der GND, technische Infrastruktur sowie Erfordernisse eines Dialogs über die Grenzen der Bibliothekswelt hinaus. Der zweite Teil beschreibt die Bedingungen und Erfordernisse für die Integration von Normdaten für Personen und Sachbegriffe in die GND, soweit diese nicht durch die Erschließungsarbeit der Bibliotheken vorgegeben sind. Daraufhin werden die Möglichkeiten des bestehenden Datenmodells und der bisher geltenden Regeln hinsichtlich ihres Anpassungspotenzials für historische Geografika sowie Bauwerke untersucht. Als ortsgebundene Entitäten haben Bauwerke Eigenschaften mit natürlichen Geografika gemeinsam, teilen als künstliche Objekte aber auch Eigenschaften der von Menschen geschaffenen Werke. Diese Dualität ortsgebundender Objekte gilt es, in der GND darstellbar zu machen. Im letzten Beitragsteil wird erläutert, warum es nur einen geringen Bedarf an einer konzeptionellen Änderung des Basisdatenmodells der GND gibt. Allerdings werden auch spezifische Eigenschaften identifiziert, die für Objekte aus Museen oder Archiven relevant sind und nicht vom aktuellen GND­Datenmodell abgedeckt werden. Diese zusätzlichen Anforderungen werden durch die Spezifikation von CORE­ und PLUS­Bereichen erfüllt. Das CORE­PLUS­Modell unterscheidet zwischen Minimalanforderungen an einen Normdatensatz in einem CORE­Modell und zusätzlichen Regeln für einen jeweils community­spezifischen PLUS­Bereich. Ausblick und Fazit zeigen die noch offenen Fragen auf, deren Lösung in der zweiten Hälfte der Projektlaufzeit ansteht.
  3. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.01
    0.012158742 = product of:
      0.04863497 = sum of:
        0.04863497 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.04863497 = score(doc=3133,freq=60.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40265095 = fieldWeight in 3133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3133)
      0.25 = coord(1/4)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  4. Bull, H.P. u.a.: Zukunft der informationellen Selbstbestimmung (2016) 0.01
    0.012158742 = product of:
      0.04863497 = sum of:
        0.04863497 = weight(_text_:und in 165) [ClassicSimilarity], result of:
          0.04863497 = score(doc=165,freq=60.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40265095 = fieldWeight in 165, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=165)
      0.25 = coord(1/4)
    
    Abstract
    Wie wird sich die Privatsphäre im Zeitalter digitaler Vernetzung effektiv schützen lassen? Was können Staat und Recht leisten und wo müssen die Bürger als Datensubjekte selbst agieren? Wie lassen sich Innovationen fördern und Daten zum Allgemeinwohl nutzen, ohne dass dabei die Grundrechte der Datensubjekte leiden? Viele Fragen zum Datenschutz sind noch ungeklärt, verlangen aber nach fachübergreifenden Debatten. Diesem Bedürfnis stellt sich die unabhängige Stiftung Datenschutz als Herausgeberin mit Band 1 der neuen Schriftenreihe DatenDebatten, in dem es um die Zukunft der informationellen Selbstbestimmung geht. Band 1 der DatenDebatten führt Utopien und Dystopien zum Datenschutz zusammen und wirft einen spannenden Blick auf die kommende Entwicklung des Schutzes der Privatsphäre. Möglich wurde das durch namhafte Autoren verschiedener Disziplinen und Professionen. Unter ihnen sind u.a. - Peter Schaar (Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz und ehemaliger Bundesbeauftragter für den Datenschutz und die Informationsfreiheit), - Prof. Dr. Hans Peter Bull (emeritierter Professor für Öffentliches Recht und Verwaltungswissenschaften und erster Bundesbeauftragter für den Datenschutz) sowie - Sabine Leutheusser-Schnarrenberger (frühere Bundesjustizministerin). Als gemeinnützige Einrichtung des Bundes beleuchtet die Stiftung Datenschutz die Aspekte des Datenschutzes neutral und frei von gewerblichen oder behördlichen Interessen. Datenschutz ist nicht nur Recht und Technik. Die neue Reihe DatenDebatten gibt der Diskussion um die Zukunft der Daten auf dem Weg zu einem Datenrecht deshalb einen größeren Rahmen. Die Schriftenreihe DatenDebatten richtet sich an Personen aus Wissenschaft, Politik, Wirtschaft, Aufsicht und Beratung, die sich mit Datenschutz und seinen Grundlagen befassen. (2016-01-29)
    Footnote
    Rez. in: BvD-NEWS Sonderausgabe 2016 unter: https://www.stiftungdatenschutz.org/fileadmin/Redaktion/PDF/BvD-Sondernews-2016_Buchvorstellung.pdf (Rudi Kramer): "In der Reihe DatenDebatten erschien im April der Band 1 zur Zukunft der informationellen Selbstbestimmung, herausgegeben durch die Stiftung Datenschutz. Auf über 170 Seiten werden durch verschiedene Autoren unterschiedliche Aspekte beleuchtet und dargestellt. Die Zusammenstellung der Autoren umfasst bekannte Namen, die man entweder aus dem Umfeld der Stiftung Datenschutz wahrgenommen hat, oder weil man sie aus der politischen Diskussion zum Thema kennt, sie als früherer Leiter einer Aufsichtsbehörde in Erinnerung blieben, sie wissenschaftlich das Thema erschließen oder sie sich journalistisch auch auf diesem Gebiet spezialisiert haben. Bei der Fülle des Spektrums der Autoren und deren Themen sei eines vorweggenommen: Sie sind nicht alle einer Meinung und man wird gelegentlich mit Gedanken konfrontiert, denen man sich stellen sollte, weil sie nicht dem allgemeinen Datenschutz-Mainstream-Verständnis (oder gar den eigenen Erwartungen) entsprechen. Die Beiträge wiederholen nicht die Geschichte des Datenschutzes, sondern wollen einen Beitrag liefern für einen Diskurs zwischen rechtlichen Grundlagen, gelebter Realität und Möglichkeiten, wie mit beidem in der Zukunft umgegangen werden kann. Auch wenn die DS-GVO nicht einmal in den Erwägungsgründen den Begriff der informationellen Selbstbestimmung heranzieht, sondern bei ihrer Berechtigungs- und Wertebasis in Erwägungsgrund 1 auf Art. 8 der Charta der Grundrechte der Europäischen Union verweist, sollte die Diskussion über das, was wir von einer informationellen Selbstbestimmung erwarten, nicht beendet werden.
    Der frühere Bundesbeauftragte für Datenschutz Hans Peter Bull schreibt, wie aus seiner Sicht die Zukunft der informationellen Selbstbestimmung aussieht und weist in diesem Zusammenhang auf die Kompliziertheit und Unübersichtlichkeit des Anspruchs hin, die daraus folgen, dass der Gesetzgeber nicht jeden Umgang mit Daten im Voraus regeln kann. Kritisch mit der Datenschutz-Grundverordnung setzt sich der ehemalige Sächsische Datenschutzbeauftragte Thomas Giesen auseinander. Er legt die aus seiner Sicht fehlende Regelungskompetenz der EU dar, verzichtet aber auch nicht darauf, sich Grundprinzipien in Abschnitten wie »Was sind Daten?« oder »Informationelle Selbstbestimmung ist unmöglich« zu hinterfragen. Die Erreichung eines wirksamen Datenschutzes durch die Rolle des Rechts stellt der Wissenschaftler Jürgen Kühling vor. Die Bundesjustizministerin a.D. Sabine Leutheusser-Schnarrenberger geht in ihrem Beitrag zur Verantwortung der Internet-Giganten auch auf den Aspekt des Privatheitkonzepts und die Schutzpflicht des Staates ein. Kai von Lewinski trägt mit seiner Kurzfassung seiner Matrix des Datenschutzrechts eine Begriffsfeldanalyse bei und versucht daraus eine Zukunftsvorhersage abzuleiten. Unter anderem mit der Erwartungshaltung der Betroffenen beschäftigt sich Bettina Robrecht in ihrem Beitrag zu dem »Gesellschaftlichen Wandel und Digitalisierung«. Peter Schaar mahnt in seinem Kapitel »Datenschutz ohne Zukunft« an, dass der Datenschutz-Grundverordnung weitere Maßnahmen folgen müssen, um zu einem globalen Verständnis zu führen, auf dessen Grundlage das in den Grund- und Menschenechten garantierte Recht auf Privatsphäre und Datenschutz global durchgesetzt werden kann.
    Im Rahmen einer Rezension kann nicht jeder Beitrag verkürzt dargestellt werden. Es werden daher die Beiträge nur in der Zusammenstellung angesprochen. So bieten die Beiträge von Julia Schramm (»Im Zeitalter von Post-Privacy«), Christine Schulzki-Haddouti (»Wie sieht eine angemessene Datenschutzkontrolle aus?«), Michael Seemann (»Informationelle und andere Selbstbestimmungen«), Indra Spiecker, gen. Döhmann (»Datenschutzrecht im Internet in der Kollision«), Julia Stinner (»Informationelle Selbstbestimmung und Grenzen rechtlicher Regulierung«), Sabine Trepte (»Die Zukunft der informationellen Selbstbestimmung«) Anregungen zu einem Diskurs, der im Rahmen des Gesetzgebungsverfahrens zur Datenschutz-Grundverordnung ausblieb. Der Band ist empfehlenswert für alle diejenigen, die daran interessiert sind, wie sich das bestehende Verständnis von informationeller Selbstbestimmung in den nächsten Jahren - wenn nicht Jahrzehnten - verändern wird und welche Faktoren dabei in der Diskussion berücksichtigt werden sollten."
  5. Schmid, F.: »Information« ist Syntax, nicht Sinn : Quasisakrale Weltformel (2019) 0.01
    0.012158742 = product of:
      0.04863497 = sum of:
        0.04863497 = weight(_text_:und in 289) [ClassicSimilarity], result of:
          0.04863497 = score(doc=289,freq=60.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.40265095 = fieldWeight in 289, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=289)
      0.25 = coord(1/4)
    
    Abstract
    Haben Sie sich einmal gefragt, was »Information« ist? Haben Sie vielleicht sogar versucht, so etwas zu finden wie eine exakte Definition? Schließlich leben wir im »Informationszeitalter«, in einer »Informationsgesellschaft« und beschäftigen uns andauernd damit, Informationen zu konsumieren, zu verarbeiten oder weiterzuverbreiten. Die öffentlich-rechtlichen Medien haben sogar einen »Informationsauftrag«. Und wer will nicht »informiert sein«?
    Content
    "Information, so scheint es, ist etwas Positives und ungemein Wichtiges, das gesellschaftliches Leben gestaltet. Aber eine griffige Definition des Wortes kennt nicht einmal die »Informationstheorie«, schreibt der Politologe Robert Feustel in seinem Essay »Am Anfang war die Information«. Für ihn ist »Information ein vom Menschenhirn erdachter Signifikant, der permanent schillert, Form und Sinn wechselt und gerade durch seine uferlose Verwendung entleert wird«. Dabei ist das Wort noch gar nicht lange derart präsent. Sein unglaublicher Aufschwung begann Mitte des 20. Jahrhunderts, als die »Kybernetik« die gesellschaftspolitische und philosophiegeschichtliche Bühne betrat. Hatte im 19. Jahrhundert noch die Angst vor »Entropie« und Chaos vorgeherrscht, das mancher in den Verwerfungen der Industrialisierung manifestiert sah, kommt in den 1950ern mit der Kybernetik ein Denkstil und eine Wissensordnung auf, die für Natur und Kultur, Technik und Gesellschaft einheitliche Steuerungsprinzipien annimmt. Einer ihrer Kernbegriffe ist eben die Information - und die späteren Diskurse der »Digitalisierung« setzten auf der Kybernetik auf. Bald, so schon die Kybernetiker, werde der Mensch, den auch sie sich bereits als Ansammlung von Daten und Informationen vorstellten, durch Maschinen ersetzbar sein.
    Doch obwohl das in der Science-Fiction schon tausendmal durchgespielt wurde, gibt es noch immer keinen Computer, der Menschen imitieren kann. Die Rechnerleistungen werden zwar immer größer, aber »dennoch sind die Computer so dumm wie zuvor (.) Sie prozessieren Informationen anhand einer bestimmten und von Menschen eingegebenen Syntax. Mit der Bedeutung, der Semantik, den Ergebnissen können sie nichts anfangen«, schreibt Feustel. Das klassische Beispiel ist der Android Data in der Serie »Star Trek«, der keine Witze versteht, so sehr er sich auch müht - so setzte die Kulturindustrie vor 30 Jahren diesen Vorbehalt in Szene. Heute überwiegen hingegen Plots wie im Film »Lucy« von Luc Besson, in dem Mensch und Maschine als zwei Arten von Informationsflüssen prinzipiell kompatibel sind. Angesichts von Big-Data-Strömen und den »Deep Learning«-Prozessen der viel beschworenen Algorithmen wird allenthalben die Hoffnung - oder Befürchtung - artikuliert, es könne plötzlich eine selbstständige Intelligenz im Netz entstehen, die eben nicht mehr nur syntaktisch verarbeitet, sondern »semantisches« Bewusstsein entwickelt. Die Information könne quasi lebendig werden und als Geist aus der Flasche steigen.
    Nicht nur der Google-Chefentwickler Ray Kurzweil hausiert schon seit Jahr und Tag mit dieser technizistischen Neuauflage jenes klassischen religiösen Ur-Moments, den Michelangelo auf dem berühmten Fresko in der Sixtinischen Kapelle festgehalten hat, auf dem Gott im Begriff ist, den erst körperlich erschaffenen Menschen durch eine Berührung der Fingerspitzen zu »beseelen«. Im Silicon Valley befassen sich ganze Think Tanks damit. Wie aber soll sich der Sprung vom Beschleunigen serieller Rechnungen mit Nullen und Einsen zum bewussten Denken, gar Fühlen und Begehren vollziehen? Darauf gibt es keine Antwort innerhalb der Ingenieurwissenschaft. Die Vorstellung, das Hirn sei nicht kategorisch von einer Anhäufung von Bits und Bytes zu unterscheiden - also von Informationen, die irgendwo hochgeladen oder maschinell generiert werden können -, erhebt die »Information« zu einer quasi sakralen Weltformel. Dieselbe hat aber natürlich sehr reale und rapide wachsende Auswirkungen auf unser soziales und politisches Leben. Das muntere Prozessieren von Informationen, die vor allem durch ihre Unmittelbarkeit enorme Wirkung entfalten, öffnet dem Gerücht, der Spekulation und den viel beschworenen Fake News Tür und Tor, wie Donald Trump mit seinen Tweets stets aufs Neue beweist. In digitalen Netzwerken vervielfachen sich Informationen, ihre semantische Stimmigkeit ist sekundär. »Alles, was prozessiert werden kann, hat Relevanz, von Aktienkursen über Theorien zur flachen Erde oder zu Reptiloiden. Es muss nicht stimmen, nur effektvoll zirkulieren«, schreibt Feustel - der auch als Mitautor des »Wörterbuchs des besorgten Bürgers« bekannt ist, in dem er und einige Wissenschaftskollegen sich kritisch mit den Begriffen der Neuen Rechten auseinandersetzen.
    Ist »Information« also am Ende gar nicht so bedeutsam oder wichtig, wie es scheint und man uns auch glauben machen will? Ist dieser Heilige Gral der Jetztzeit nicht viel mehr als eine leere Hülle, die als sinnstiftendes und das Chaos ausräumende Moment in unserem sozialen und politischen Leben völlig überbewertet wird? Diese Frage kann und sollte man sich stellen. Hinter der Information aber nun eine große Gefahr oder einen heimlichen Herrschaftsapparat zu vermuten, wäre gleichfalls Unsinn. Feustels Essay ist weit von Technikfeindlichkeit entfernt. Es geht darum, das inflationäre Reden über die Information, die in unserer Gesellschaft längst Fetischcharakter erlangt hat, ideologiekritisch anzuleuchten und sich - so Feustel - nicht von der »philosophischen Großspurigkeit der Kybernetik« an der Nase herumführen zu lassen. Für das Alltagsleben dürfte das eine gute Richtschnur sein. Es muss uns nicht nur darum gehen, am Informationsfluss beteiligt zu sein, sondern sich mit dessen Inhalt auseinanderzusetzen."
  6. Pfeiffer, S.: Entwicklung einer Ontologie für die wissensbasierte Erschließung des ISDC-Repository und die Visualisierung kontextrelevanter semantischer Zusammenhänge (2010) 0.01
    0.011868188 = product of:
      0.047472753 = sum of:
        0.047472753 = weight(_text_:und in 658) [ClassicSimilarity], result of:
          0.047472753 = score(doc=658,freq=42.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39302891 = fieldWeight in 658, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=658)
      0.25 = coord(1/4)
    
    Abstract
    In der heutigen Zeit sind Informationen jeglicher Art über das World Wide Web (WWW) für eine breite Bevölkerungsschicht zugänglich. Dabei ist es jedoch schwierig die existierenden Dokumente auch so aufzubereiten, dass die Inhalte für Maschinen inhaltlich interpretierbar sind. Das Semantic Web, eine Weiterentwicklung des WWWs, möchte dies ändern, indem es Webinhalte in maschinenverständlichen Formaten anbietet. Dadurch können Automatisierungsprozesse für die Suchanfragenoptimierung und für die Wissensbasenvernetzung eingesetzt werden. Die Web Ontology Language (OWL) ist eine mögliche Sprache, in der Wissen beschrieben und gespeichert werden kann (siehe Kapitel 4 OWL). Das Softwareprodukt Protégé unterstützt den Standard OWL, weshalb ein Großteil der Modellierungsarbeiten in Protégé durchgeführt wurde. Momentan erhält der Nutzer in den meisten Fällen bei der Informationsfindung im Internet lediglich Unterstützung durch eine von Suchmaschinenbetreibern vorgenommene Verschlagwortung des Dokumentinhaltes, d.h. Dokumente können nur nach einem bestimmten Wort oder einer bestimmten Wortgruppe durchsucht werden. Die Ausgabeliste der Suchergebnisse muss dann durch den Nutzer selbst gesichtet und nach Relevanz geordnet werden. Das kann ein sehr zeit- und arbeitsintensiver Prozess sein. Genau hier kann das Semantic Web einen erheblichen Beitrag in der Informationsaufbereitung für den Nutzer leisten, da die Ausgabe der Suchergebnisse bereits einer semantischen Überprüfung und Verknüpfung unterliegt. Deshalb fallen hier nicht relevante Informationsquellen von vornherein bei der Ausgabe heraus, was das Finden von gesuchten Dokumenten und Informationen in einem bestimmten Wissensbereich beschleunigt.
    Um die Vernetzung von Daten, Informationen und Wissen imWWWzu verbessern, werden verschiedene Ansätze verfolgt. Neben dem Semantic Web mit seinen verschiedenen Ausprägungen gibt es auch andere Ideen und Konzepte, welche die Verknüpfung von Wissen unterstützen. Foren, soziale Netzwerke und Wikis sind eine Möglichkeit des Wissensaustausches. In Wikis wird Wissen in Form von Artikeln gebündelt, um es so einer breiten Masse zur Verfügung zu stellen. Hier angebotene Informationen sollten jedoch kritisch hinterfragt werden, da die Autoren der Artikel in den meisten Fällen keine Verantwortung für die dort veröffentlichten Inhalte übernehmen müssen. Ein anderer Weg Wissen zu vernetzen bietet das Web of Linked Data. Hierbei werden strukturierte Daten des WWWs durch Verweise auf andere Datenquellen miteinander verbunden. Der Nutzer wird so im Zuge der Suche auf themenverwandte und verlinkte Datenquellen verwiesen. Die geowissenschaftlichen Metadaten mit ihren Inhalten und Beziehungen untereinander, die beim GFZ unter anderem im Information System and Data Center (ISDC) gespeichert sind, sollen als Ontologie in dieser Arbeit mit den Sprachkonstrukten von OWL modelliert werden. Diese Ontologie soll die Repräsentation und Suche von ISDC-spezifischem Domänenwissen durch die semantische Vernetzung persistenter ISDC-Metadaten entscheidend verbessern. Die in dieser Arbeit aufgezeigten Modellierungsmöglichkeiten, zunächst mit der Extensible Markup Language (XML) und später mit OWL, bilden die existierenden Metadatenbestände auf einer semantischen Ebene ab (siehe Abbildung 2). Durch die definierte Nutzung der Semantik, die in OWL vorhanden ist, kann mittels Maschinen ein Mehrwert aus den Metadaten gewonnen und dem Nutzer zur Verfügung gestellt werden. Geowissenschaftliche Informationen, Daten und Wissen können in semantische Zusammenhänge gebracht und verständlich repräsentiert werden. Unterstützende Informationen können ebenfalls problemlos in die Ontologie eingebunden werden. Dazu gehören z.B. Bilder zu den im ISDC gespeicherten Instrumenten, Plattformen oder Personen. Suchanfragen bezüglich geowissenschaftlicher Phänomene können auch ohne Expertenwissen über Zusammenhänge und Begriffe gestellt und beantwortet werden. Die Informationsrecherche und -aufbereitung gewinnt an Qualität und nutzt die existierenden Ressourcen im vollen Umfang.
  7. Jordan, J.: Nicolas Bourbaki (2014) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 6099) [ClassicSimilarity], result of:
          0.047357272 = score(doc=6099,freq=2.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 6099, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6099)
      0.25 = coord(1/4)
    
    Abstract
    Präsentation zu "Leben" und Werk von Bourbaki.
  8. Cornelius, P.; Schneemann, R.; Weisel, L.: SUMA-Kongress 2011 - eine bemerkenswerte Tagung ! (2011) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 3097) [ClassicSimilarity], result of:
          0.047357272 = score(doc=3097,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 3097, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3097)
      0.25 = coord(1/4)
    
    Abstract
    Das Programm stand unter dem Motto "Die Internet Wirtschaft - Geld verdienen im Internet". Den etwa 50 live Teilnehmenden berichteten Experten aus der Internet-Wirtschaft über ihre Geschäftsmodelle sowie die Erfolgsfaktoren. Am Nachmittag ging es unter dem Überbegriff "Netzpolitik" um aktuelle Diskussionen mit wirtschaftspolitischem Hintergrund und in den beiden Podiumssitzungen teils ungewohnt hitzig und persönlich "giftig" aber sehr aktuell um "Anonymität im Netz, ein Bürgerrecht?" und um die netzpolitischen Koalitionsverhandlungen in Berlin.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.6/7, S.329-330
  9. Dupont, J.: Falsch! (2017) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 4470) [ClassicSimilarity], result of:
          0.047357272 = score(doc=4470,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 4470, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4470)
      0.25 = coord(1/4)
    
    Abstract
    Mit erfundenen Meldungen lässt sich im Internet viel Geld und politisch Stimmung machen. Wie kann man sie erkennen? Ein Beitrag zum Thema Fake News. Fazit: "Ein Rezept, mit dem man Fake News erkennt, gibt es noch nicht. Bader und Rinsdorf sind aber auf der Suche danach. Im Moment analysieren sie Tausende Fake News auf auffällige Textmerkmale. Anschließend sollen Algorithmen programmiert werden, die in Sekundenschnelle erkennen, mit welcher Wahrscheinlichkeit es sich um eine gefälschte Nachricht handelt. Bader und Rinsdorf: "Wer die Nachrichtenvielfalt nutzt, sich breit informiert und Informationen im Netz mit einer gewissen Grundskepsis begegnet, kann Fake News schneller durchschauen.""
  10. Göldner, R.: Datenaustauschformate : Erfahrungen und Schlüsse aus ADeX (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 3435) [ClassicSimilarity], result of:
          0.047357272 = score(doc=3435,freq=2.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 3435, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=3435)
      0.25 = coord(1/4)
    
  11. Behrens-Neumann, R.: Aus der 62. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 17. und 18. April 2012 in München (2012) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 330) [ClassicSimilarity], result of:
          0.047357272 = score(doc=330,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 330, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=330)
      0.25 = coord(1/4)
    
    Abstract
    Am 17. und 18. April 2012 fand die 62. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung des Bibliotheksverbunds Bayern (BVB) in München statt. Der folgende Bericht gibt einen Überblick über die gemeinsamen Aktivitäten der deutschsprachigen Verbünde aus Deutschland, Österreich und der Schweiz sowie eine Übersicht der aktuellen Arbeiten und Projekte der Mitglieder der AG Verbund mit Stand April 2012.
  12. Drauz, S.; Plieninger, J.: Nutzerwünsche sind nur bedingt RAK-kompatibel : So wird der Katalog zukunftstauglich: Recommenderdienste - Anreicherungen - Katalog 2.0 - Table of Contents (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 337) [ClassicSimilarity], result of:
          0.047357272 = score(doc=337,freq=32.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 337, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=337)
      0.25 = coord(1/4)
    
    Abstract
    So gewohnt der über das Netz nutzbare Katalog mittlerweile ist, die Entwicklung ist immer noch nicht an ihr Ende gekommen. Verschiedene Funktionalitäten wie Inhaltsangaben, Register, Cover, Empfehlungen zu ähnlicher Literatur sowie Merkmale von Web 2.0 wie Personalisierbarkeit, Listenerstellung, gemeinsame Nutzung und Erschließung sowie RSS können noch hinzukommen - freilich mit unterschiedlicher Wahrscheinlichkeit. Technische, rechtliche und - nicht zu vergessen - wirtschaftliche Schranken machen es unwahrscheinlich, dass alles auf einmal eingeführt werden wird. In diesem Artikel sollen die verschiedenen Versatzstücke eines »Katalogs der Zukunft« dargestellt und bewertet werden, um einen Ausblick zu geben, wohin die Reise gehen kann und wird. Wann der Aufbruch stattfindet und welches die verschiedenen Verweilstationen sind, das ist Sache der Politik, der Finanzen und der Technik; ihre Durchsetzungskraft, Akzeptanz und Rahmenbedingungen die einer jeden Bibliothek. Thema ist aber auch der »Katalog der Gegenwart« und seine bis heute vielfach unausgeschöpften Möglichkeiten. Hier sollen deren Nutzen aufgezeigt, die finanzielle und personelle Machbarkeit erörtert und bibliothekarische Vorbehalte beseitigt werden.
    Content
    "Der herkömmliche Katalog und die herkömmlichen bibliothekarischen Methoden der Erschließung des Bestandes und von Literatur reichen nicht mehr aus. Kommerzielle Anbieter treffen die Informationsbedürfnisse von Benutzern weit eher - sie bieten zum einen weniger (bibliografische Angaben) und zum anderen mehr (Informationen zum Buch und zu ähnlichen Büchern). Für viele Theoretiker und Praktiker geht es darum, die Daten frei(er) zu lassen und sie angepasster, anpassbarer zu machen, so weit möglich. Wenn die Daten gefangen sind, kann man sie befreien, wie dies sogar bei proprietären Systemen zu schaffen ist, hat kürzlich Tim Spalding mit seinem Aufsatz »Breaking into the OPAC« im Buch »Library Mashups« (Nicole C. Engard; London: Facet, 2009; Seite 129-143) gezeigt. Aufwendig zwar, aber durchaus im Bereich des Möglichen! Letztlich aber handelt es sich als Leitfrage stets darum, den Bedürfnissen der Benutzer zu entsprechen, die Handhabung selbsterklärender, die Information reicher, die Weiterführung der Recherche mit anderen Mitteln einfacher zu machen. Sagen wir: Die Zukunft ist da, aber sie ist nur bedingt RAK-kompatibel ..."
  13. Götze, M.: EuropeanaLocal : Aggregatoreninfrastrukturen für lokales und regionales Kulturerbe. Ein Pionierprojekt für die Anfangsjahre der Europeana (2011) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 479) [ClassicSimilarity], result of:
          0.047357272 = score(doc=479,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 479, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=479)
      0.25 = coord(1/4)
    
    Abstract
    EuropeanaLocal war ein dreijähriges Best-Practice-Netzwerk-Projekt der EU mit dem Ziel, nachhaltige Aggregatoreninfrastrukturen für das Einbringen von lokalen und regionalen Inhalten in die europäische digitale Bibliothek Europeana aufzubauen. Die Zentral- und Landesbibliothek Berlin (ZLB) entwickelte als deutscher Partner im Netzwerk den Aggregator EuropeanaLocal-Deutschland, der bis zum Mai 2011 über 90.000 digitale Objekte von 29 Archiven, Bibliotheken, Museen und audiovisuellen Archiven für die Europeana bereitstellte. Am 30. Mai 2011 endete das EU-Projekt, was Anlass für diese Rückschau ist.
  14. Jupe, M.: Focus« nutzt FileMaker zur Qualitätssicherung (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 653) [ClassicSimilarity], result of:
          0.047357272 = score(doc=653,freq=32.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 653, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=653)
      0.25 = coord(1/4)
    
    Abstract
    Das Magazin »Focus« ist eines der beiden wöchentlichen Nachrichtenmagazine in Deutschland. Mehr als 597000 Leser vertrauen den politischen und wirtschaftlichen Informationen des »Focus«. Diese sorgfältig recherchierten Informationen bilden das Rückgrat der Zeitschrift, die für sich als »Fakten«-Magazin wirbt. Damit die Richtigkeit sämtlicher Fakten auch tatsächlich gewährleistet ist, bedient sich das Ressort Dokumentation und Schlussredaktion des Focus Magazin Verlags einer individuell zugeschnittenen FileMakerDatenbank für Recherche, Verifikation und Qualitätssicherung der Artikel.
    Content
    "Die Dokumentation des Focus Magazin Verlages unterstützt die Redaktionen des Hauses bei der Recherche und überprüft sämtliche Artikel auf inhaltliche Richtigkeit (Verifikation) sowie Einhaltung der Standards und Regelwerke. Speziell für die Recherche bedienen sich die Mitarbeiter des Ressorts der ganzen Bandbreite an Informationsmitteln, von der klassischen Enzyklopädie bis hin zur Online-Datenbank. Um diese Arbeit so effizient wie möglich durchzuführen, baut die Dokumentation und Schlussredaktion seit zwei Jahren eine exakt auf die Bedürfnisse des Ressorts zugeschnittene FileMaker-Datenbank auf, die von allen Mitarbeitern genutzt wird. Diese Datenbank vereint sämtliche Focus-Regeln (Schreibweisen, politisch korrekte Bezeichnungen religiöser Gruppen und vieles mehr), die bis dato an unterschiedlichsten Stellen (als E-Mails, Kommentare in Word-Dokumenten) gesammelt oder abgelegt waren und deren Beachtung dadurch schwierig zu gewährleisten war. Ebenso relevant sind die bibliothekarischen Hinweise, Bewertungen und Recherchehinweise (Wo findet man aktuelle Zahlen/Statistiken zum Spendenaufkommen im europäischen Vergleich? Welches Nachschlagewerk ist valable Quelle für Opferzahlen des Zweiten Weltkriegs? Und so weiter.) sowie geprüfte Informationen grundsätzlicher Art.
    »Durch den zentralen Zugriff auf diese Informationen ist es uns gelungen, wiederkehrende Fragestellungen in kürzester Zeit zu klären und die Qualitätsstandards zu sichern. Lückenloser Informationsfluss ist dadurch sichergestellt, dass Spezialkenntnisse der einzelnen Mitarbeiter auf dieser Plattform für alle Mitarbeiter verfügbar geworden sind. Wertvolle Hinweise über Quellen und Vorgehensweisen drohten immer wieder verloren zu gehen«, kommentiert Michael Jupe, Diplom-Bibliothekar und für die Einführung der FileMakerDatenbank verantwortlicher Redakteur. Die Datenbank beinhaltet auch den Focus-Bibliothekskatalog, der regelmäßig mit den aktuellen Daten der Deutschen Nationalbibliothek gefüllt wird. Zusätzlich können die Nutzer darin eigene Kommentare, Benutzungshinweise und Verweise zu Einträgen erstellen. Dies stellt einen enormen Mehrwert dar und eröffnet den Redakteuren des Ressorts neue Möglichkeiten, ihr Wissen zu teilen. Die Flexibilität des Systems ermöglicht es auch, auf nachträglich auftretende Bedürfnisse zu reagieren und maßgeschneiderte Erweiterungen einzufügen. Gerade im Bereich der Wissensorganisation ist es wichtig, neue Medienarten so einbinden zu können, dass sie »nur einen Mausklick« entfernt sind."
  15. Wiesenmüller, H.: RDA in der bibliothekarischen Ausbildung : der Umstieg auf das neue Regelwerk aus Sicht von Lehrenden und Unterrichtenden (2013) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 852) [ClassicSimilarity], result of:
          0.047357272 = score(doc=852,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 852, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=852)
      0.25 = coord(1/4)
    
    Abstract
    Die Einführung des neuen Katalogisierungsstandards RDA stellt eine besondere Herausforderung für Lehrende und Unterrichtende in der bibliothekarischen Ausbildung dar. Da die Details der Umsetzung noch nicht bekannt sind, ist die Vermittlung vorerst nur sehr eingeschränkt möglich. In einer Online-Umfrage wurden der Stand der Vorbereitungen bei den Lehrenden, ihre besonderen Bedürfnisse und Schwierigkeiten sowie ihre Erwartungen für die Zukunft erfragt. Der Beitrag stellt die Ergebnisse vor und interpretiert sie.
  16. Dahlberg, I.: Information Coding Classification : Geschichtliches, Prinzipien, Inhaltliches (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 57) [ClassicSimilarity], result of:
          0.047357272 = score(doc=57,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 57, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=57)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag umfasst eine Einführung in das Verständnis der Information Coding Classification (ICC), einer Universalklassifikation von Wissensgebieten. Er enthält (1) Entstehungsgeschichte (1970 bis 1977), (2) ihre Prinzipien: Begriffe, Begriffsbeziehungen, Notation, Hauptklassen als Objektbereiche in Integrationsstufen, Systemstellenplan als Systematifikator mit neun Aspekten zur Untergliederung, Verbindungsmöglichkeiten mit anderen Systemen, Systemstellen zur Darstellung von Inter- und Transdisziplinarität. Verwendungsmöglichkeiten. (3) Erläuterung ihres Inhalts und kurze Erörterung der Probleme bei der Konzeption und Erarbeitung.
    Source
    Information - Wissenschaft und Praxis. 61(2010) H.8, S.449-454
  17. Stärk, D.: ¬Die Erfassung, Nutzung und Weiterverwendung von statistischen Informationen : Erfahrungsbericht (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 277) [ClassicSimilarity], result of:
          0.047357272 = score(doc=277,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 277, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=277)
      0.25 = coord(1/4)
    
    Abstract
    Die Erfahrungen des Statistischen Bundesamtes Wiesbaden mit dem Vertrieb gedruckter und digitaler Veröffentlichungen sowie die zugrunde liegenden Geschäftsmodelle werden dargestellt.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  18. Kaiser, R.; Ockenfeld, M.; Skurcz, N.: Wann versteht mich mein Computer endlich? : 1. DGI-Konfernz: Semantic Web & Linked Data - Elemente zukünftiger Informationsinfrastrukturen (2011) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 392) [ClassicSimilarity], result of:
          0.047357272 = score(doc=392,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 392, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=392)
      0.25 = coord(1/4)
    
    Abstract
    »Wann versteht mich mein Computer endlich?« So könnte man die Quintessenz der 1. DGI-Konferenz, ausgerichtet von der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI) anlässlich der diesjährigen Frankfurter Buchmesse zusammenfassen, in deren Rahmen zugleich die 62. DGI-Jahrestagung stattgefunden hat. Unter dem Motto »Semantic Web & Linked Data - Elemente zukünftiger Informationsinfrastrukturen« kamen vom 7. bis 9. Oktober 2010 über 400 Informationsfachleute aus Wissenschaft, Bildung, Verwaltung, Wirtschaft und Bibliotheken zusammen, um ihre Arbeiten und Erkenntnisse zur nächsten Generation der Webtechnologien vorzustellen und untereinander zu diskutieren.
  19. Hauke, P.; Hötzeldt, A.; Rumler, J.: Kataloganreicherung?! : Vom Zugang zu Open-Access-Publikationen über Bibliothekskataloge am Beispiel hybrider Publikationen (2010) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 580) [ClassicSimilarity], result of:
          0.047357272 = score(doc=580,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 580, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=580)
      0.25 = coord(1/4)
    
    Abstract
    Der Nachweis wissenschaftlicher Open-Access-Publikationen in Bibliothekskatalogen im Sinne der Kataloganreicherung stellt Bibliotheken vor zahlreiche Fragen. Am Beispiel von hybriden Publikationen (parallele Druck- und frei verfügbare elektronische Ausgabe) wird gezeigt, wie Bibliotheken gegenwärtig damit umgehen. Bisher gibt es keine einheitliche Richtlinie, und so verfährt jede Bibliothek bzw. jeder Verbund anders. In weit reichenden nationalen Recherchen haben die Autorinnen die unterschiedlichen Handhabungen analysiert und kritisch bewertet.
    Source
    Bibliothek: Forschung und Praxis. 34(2010) H.3, S.293-305
  20. Behrens-Neumann, R.: Aus der 60. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 13. und 14. April 2011 in Berlin (2011) 0.01
    0.011839318 = product of:
      0.047357272 = sum of:
        0.047357272 = weight(_text_:und in 894) [ClassicSimilarity], result of:
          0.047357272 = score(doc=894,freq=8.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.39207286 = fieldWeight in 894, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=894)
      0.25 = coord(1/4)
    
    Abstract
    Am 13. und 14. April 2011 fand die 60. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung des Kooperativen Bibliotheksverbunds Berlin-Brandenburg (KOBV) in Berlin statt. Der folgende Bericht gibt einen Überblick über die gemeinsamen Aktivitäten der deutschsprachigen Verbünde aus Deutschland, Österreich und der Schweiz sowie eine Übersicht der aktuellen Arbeiten und Projekte der Mitglieder der AG Verbund mit Stand April 2011.

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications