Search (55 results, page 2 of 3)

  • × theme_ss:"Visualisierung"
  1. Aufreiter, M.: Informationsvisualisierung und Navigation im Semantic Web (2008) 0.01
    0.010864821 = product of:
      0.043459285 = sum of:
        0.043459285 = weight(_text_:und in 4711) [ClassicSimilarity], result of:
          0.043459285 = score(doc=4711,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.35989314 = fieldWeight in 4711, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4711)
      0.25 = coord(1/4)
    
    Abstract
    Der Anreiz und das Potential von Informationsvisualisierungen wird bereits häufig erkannt und der Wunsch nach deren Anwendung immer stärker. Gerade im Bereich des Wissensmanagements spielt dieses Gebiet eine immer wichtigere Rolle. Diese Arbeit beschäftigt sich mit Informationsvisualisierung im Semantic Web und vermittelt einen Überblick über aktuelle Entwicklungen zum Thema Knowledge Visualization. Zun¨achst werden grundlegende Konzepte der Informationsvisualisierung vorgestellt und deren Bedeutung in Hinblick auf das Wissensmanagement erklärt. Aus den Anforderungen, die das Semantic Web an die Informationsvisualisierungen stellt, lassen sich Kriterien ableiten, die zur Beurteilung von Visualisierungstechniken herangezogen werden können. Die ausgewählten Kriterien werden im Rahmen dieser Arbeit zu einem Kriterienkatalog zusammengefasst. Schließlich werden ausgewählte Werkzeuge beschrieben, die im Wissensmanagement bereits erfolgreich Anwendung finden. Die einzelnen Untersuchungsobjekte werden nach einer detailierten Beschreibung anhand der ausgewählten Kriterien analysiert und bewertet. Dabei wird besonders auf deren Anwendung im Kontext des Semantic Web eingegangen.
  2. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval im Fokus der Infromationspraxis (2013) 0.01
    0.010864821 = product of:
      0.043459285 = sum of:
        0.043459285 = weight(_text_:und in 1709) [ClassicSimilarity], result of:
          0.043459285 = score(doc=1709,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.35989314 = fieldWeight in 1709, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=1709)
      0.25 = coord(1/4)
    
    Abstract
    Methoden und Techniken der Informationsvisualisierung werden seit ungefähr zwanzig Jahren im Bereich der Informationssuche eingesetzt. In dieser Literaturstudie werden ausgewählte Visualisierungsanwendungen der letzten Jahre vorgestellt. Sie betreffen zum einen den Retrievalprozess, das Boolesche Retrieval, die facettierte Suche, Dokumentbeziehungen, die Zufallssuche und Ergebnisanzeige, zum anderen spezielle Anwendungen wie die kartenbasierte und adaptive Visualisierung, Zitationsnetzwerke und Wissensordnungen. Die Einsatzszenarien für Applikationen der Informationsvisualisierung sind vielfältig. Sie reichen von mobilen kleinformatigen Anwendungen bis zu großformatigen Darstellungen auf hochauflösenden Bildschirmen, von integrativen Arbeitsplätzen für den einzelnen Nutzer bis zur Nutzung interaktiver Oberflächen für das kollaborative Retrieval. Das Konzept der Blended Library wird vorgestellt. Die Übertragbarkeit von Visualisierungsanwendungen auf Bibliothekskataloge wird im Hinblick auf die Nutzung des Kataloginputs und des Angebots an Sucheinstiegen geprüft. Perspektivische Überlegungen zu zukünftigen Entwicklungsschritten von Bibliothekskatalogen sowie zum Einfluss von Visualisierungsanwendungen auf die Informationspraxis werden angestellt.
  3. Rohner, M.: Betrachtung der Data Visualization Literacy in der angestrebten Schweizer Informationsgesellschaft (2018) 0.01
    0.010864821 = product of:
      0.043459285 = sum of:
        0.043459285 = weight(_text_:und in 4585) [ClassicSimilarity], result of:
          0.043459285 = score(doc=4585,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.35989314 = fieldWeight in 4585, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=4585)
      0.25 = coord(1/4)
    
    Abstract
    Datenvisualisierungen sind ein wichtiges Werkzeug, um Inhalte und Muster in Datensätzen zu erkennen und ermöglichen so auch Laien den Zugang zu der Information, die in Datensätzen steckt. Data Visualization Literacy ist die Kompetenz, Datenvisualisierungen zu lesen, zu verstehen, zu hinterfragen und herzustellen. Data Visulaization Literacy ist daher eine wichtige Kompetenz der Informationsgesellschaft. Im Auftrag des Bundesrates hat das Bundesamt für Kommunikation BAKOM die Strategie "Digitale Schweiz" entwickelt. Die Strategie zeigt auf, wie die fortschreitende Digitalisierung genutzt und die Schweiz zu einer Informationsgesellschaft entwickelt werden soll. In der vorliegenden Arbeit wird untersucht, inwiefern die Strategie "Digitale Schweiz" die Förderung von Data Visualization Literacy in der Bevölkerung unterstützt. Dazu werden die Kompetenzen der Data Visualization Literacy ermittelt, Kompetenzstellen innerhalb des Bildungssystems benannt und die Massnahmen der Strategie in Bezug auf Data Visualization Literacy überprüft.
    Imprint
    Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
  4. Haller, S.H.M.: Mappingverfahren zur Wissensorganisation (2002) 0.01
    0.010454679 = product of:
      0.041818716 = sum of:
        0.041818716 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.041818716 = score(doc=3406,freq=4.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34630734 = fieldWeight in 3406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=3406)
      0.25 = coord(1/4)
    
    Content
    Diplomarbeit, Freie Universität Berlin / Fachbereich Erziehungswissenschaft und Psychologie / Diplomstudiengang Psychologie; vgl.: http://heikohaller.de/literatur/diplomarbeit/ bzw. www.heikohaller.de/toolvergleich/.
    Imprint
    Berlin : Freie Universität / Fachbereich Erziehungswissenschaft und Psychologie
  5. Reiterer, H.; Jetter, H.-C.: Informationsvisualisierung (2013) 0.01
    0.010454679 = product of:
      0.041818716 = sum of:
        0.041818716 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.041818716 = score(doc=714,freq=4.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34630734 = fieldWeight in 714, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=714)
      0.25 = coord(1/4)
    
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried
  6. Brantl, M.; Ceynowa, K.; Meiers, T.; Wolf, T.: Visuelle Suche in historischen Werken (2017) 0.01
    0.010454679 = product of:
      0.041818716 = sum of:
        0.041818716 = weight(_text_:und in 3467) [ClassicSimilarity], result of:
          0.041818716 = score(doc=3467,freq=16.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34630734 = fieldWeight in 3467, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3467)
      0.25 = coord(1/4)
    
    Abstract
    Die Bayerische Staatsbibliothek (BSB) zählt mit ihrem Bestand von knapp 11 Mio. Bänden zu den bedeutendsten Universalbibliotheken der Welt. Bereits 1,2 Mio. Werke sind digitalisiert, was die BSB zur größten digitalen Kulturinstitution in Deutschland macht. Dieser digitale Bestand umfasst vorwiegend urheberrechtsfreie Werke vom 8. bis ins 20. Jahrhundert, von der mittelalterlichen Bibelhandschrift bis zur Boulevardzeitung der 1920er-Jahre. Diese Vielfalt des zu digitalisierenden schriftlichen Kulturerbes und das hohe Tempo der Massendigitalisierung in den letzten Jahren haben ihren Preis - die inhaltliche Erschließung der Werke hinkt hinterher, insbesondere bei Werken, die nicht mittels Optical Character Recognition-Verfahren (OCR) automatisiert maschinenlesbar transformiert und zugänglich gemacht werden können. Dies gilt insbesondere für mittelalterliche Handschriften, Alte Druck- und Spezialbestände. Deshalb blieb auch der reichhaltige, in diesen Werken verborgene Bildbestand für den Nutzer weitestgehend verborgen und konnte lediglich durch das Durchblättern am Bildschirm entdeckt werden. Dies war Motivation für die Bayerische Staatsbibliothek, gemeinsam mit dem Fraunhofer Heinrich-Hertz-Institut in Berlin ein System zur ähnlichkeitsbasierten Bildsuche aufzubauen, welches sämtliche Bildinhalte aller 1,2 Mio. Digitalisate automatisch identifiziert. Hierbei werden mittels morphologischer Verfahren Bilder aus den Buchseiten extrahiert, die danach aufgrund von Farb- und Kantenmerkmalen klassifiziert werden. Bilder "ohne Informationswert" werden mit Hilfe von Methoden aus dem Bereich des maschinellen Lernens herausgefiltert. Damit konnten aus den digitalisierten Werken der BSB bislang mehr als 43 Mio. einzelne Bilder identifiziert werden, die mittels einer hochperformanten Suchmaschine über eine frei verfügbare Web-Applikation dem Anwender direkt zur Verfügung stehen. Dank der Vielfalt und Reichhaltigkeit der indexierten Bestände spricht dieses Angebot nicht nur Historiker und Buchwissenschaftler an, sondern Interessierte aus den unterschiedlichsten Fachrichtungen. Die Ähnlichkeitssuche stellt dabei unbekannte, ungewöhnliche und oftmals überraschende Bezüge zwischen unterschiedlichsten Werken her.
  7. Sieber, W.: Visualisierung von Thesaurus-Strukturen unter besonderer Berücksichtigung eines Hyperbolic Tree Views (2004) 0.01
    0.010349605 = product of:
      0.04139842 = sum of:
        0.04139842 = weight(_text_:und in 1456) [ClassicSimilarity], result of:
          0.04139842 = score(doc=1456,freq=8.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.34282678 = fieldWeight in 1456, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=1456)
      0.25 = coord(1/4)
    
    Abstract
    Wenige Software-Werkzeuge zur Visualisierung von Thesaurus-Strukturen sind über das prototypische Stadium hinaus gelangt. Konkrete Implementationen entsprechender Anwendungen werden evaluiert. Aus den Gebieten Thesaurus-Entwicklung, Visualisierung, Interaktion, Informations- und Graphenvisualisierung werden Kriterien ermittelt, an denen die Implementierungen gemessen werden. Ein generisches Werkzeug zur Visualisierung dreidimensionaler hyperbolischer Bäume wird dazu verwendet, die Strukturen eines Thesaurus darzustellen. Dieses Werkzeug wird mit in die Evaluation einbezogen. Es hat sich gezeigt, dass die Visualisierung der Thesaurus-Strukturen auf Basis weniger unterschiedlicher Verfahren erfolgt. Der generische Visualisierer ist für Thesaurus-Strukturen prinzipiell geeignet, doch fehlen ihm spezifische Möglichkeiten der Domäne Thesaurus.
    Footnote
    Diplomarbeit Studiengang Informationswirtschaft, Fakultät für Informations- und Kommunikationswissenschaft Fachhochschule Köln
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Stadtbibliothek Reutlingen: Web-Auftritt komplett mit Web-Opac Premium von BOND realisiert (2005) 0.01
    0.010243452 = product of:
      0.04097381 = sum of:
        0.04097381 = weight(_text_:und in 3337) [ClassicSimilarity], result of:
          0.04097381 = score(doc=3337,freq=24.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.33931053 = fieldWeight in 3337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3337)
      0.25 = coord(1/4)
    
    Content
    "Die Stadtbibliothek Reutlingen (www.stadtbibliothek-reutlingen.de) hat ihren gesamten Internetauftritt auf den Web-Opac Premium von BOND umgerüstet. Der WebOpac Premium ist weit mehr als ein gewöhnlicher Web-Opac. Vielmehr ist er ein Internet-Por-tal, in dessen Struktur alle Informationen und Angebote der Stadtbibliothek integriert sind. Mit dem Web-Opac Premium konnte die Bibliothek bei der Neugestaltung ihrer Internetseiten auf ein bestehendes und flexibel anpassbares Produkt zurückgreifen, um so Zeit und Arbeit zu sparen. Bestehende HTML-Seiten der alten Homepage wurden einfach in die neue Website übernommen. Zudem erhöhen viele Zusatzfunktionen des Web-Opac Premium die Attraktivität der Bibliothek. Neu ist auch die »Assoziative Suche« (Spider Search), mit der die Bibliotheksbenutzer bei der Mediensuche neue Sinnzusammenhänge erschließen und so ihre Suchergebnisse verbessern können. Für die übersichtliche Gliederung der Website sorgen die horizontale Navigationsleiste nach Abteilungen und Zweigstellen der Stadtbibliothek sowie ein blaues Navigationselement im linken Frame, das sich mit sprechenden Begriffen an alle Benutzer und bestimmte Zielgruppen der Bibliothek wendet. Unter dem Stichwort »Suche« können Leser sowohl nach Inhalten auf der Website als auch über drei Wege nach Medien suchen: über den Web-Opac der Stadtbibliothek, die Assoziative Mediensuche im Katalog der Bibliothek und in regionalen Katalogen, wie denen der Bibliothek der Fachhochschule Reutlingen, der UB oder der Stadtbücherei Tübingen. Der Bereich »Service« bietet viele Informationen zur Bibliothek und deren Benutzung. Unter »Meine Bibliothek« kann der Leser nach der Anmeldung sein Benutzerkonto einsehen, die Leihfrist der entliehenen Medien verlängern und sich sein persönliches Interessenprofil abspeichern. Das heißt der Leser legt gewünschte Stichwörter, Verfasser, Mediengruppen oder Interessenkreise fest und wird regelmäßig zu seinen Wunschthemen informiert. Der Bereich »Veranstaltungen« informiert über die aktuellen Veranstaltungen, untergliedert nach Kinderbibliothek, Hauptstelle und Zweigstellen. Das eingesetzte Veranstaltungsmodul des Web-Opacs Premium übernimmt die automatisierte Aktualisierung der angezeigten Veranstaltungen durch Angabe von Start- und Ablaufdatum."
  9. Petersen, A.; Münch, V.: STN® AnaVist(TM) holt verborgenes Wissen aus Recherche-Ergebnissen : Neue Software analysiert und visualisiert Marktaufteilung, Forschung und Patentaktivitäten (2005) 0.01
    0.010243452 = product of:
      0.04097381 = sum of:
        0.04097381 = weight(_text_:und in 3984) [ClassicSimilarity], result of:
          0.04097381 = score(doc=3984,freq=24.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.33931053 = fieldWeight in 3984, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=3984)
      0.25 = coord(1/4)
    
    Abstract
    "Im 21. Jahrhundert ist die entscheidende Herausforderung an Informationsdienstleister nicht, Informationen zugänglich, sondern sie optimal nutzbar zu machen", sagt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe, das den Online-Dienst STN International in internationaler Kooperation betreibt. Informationsprofis, so Brünger-Weilandt weiter, bräuchten hockentwickelte Software für strategisches Informationsmanagement. Als "Antwort auf diesen Bedarf" hat STN International eine neue Software zur Analyse und Visualisierung (A&V) von Rechercheergebnissen aus STN-Datenbanken entwickelt. STN® AnaVistT(TM) wurde auf der DGI Online-Tagung Ende Mai in Frankfurt am Main und auf Benutzertreffen in Frankfurt am Main, München und Essen vorgestellt. Seit 18. Juli 2005 ist das neue A&V-Werkzeug für die öffentliche Nutzung freigegeben (www.stn-international.de).
    Die wichtigsten Funktionen von STN AnaVist sind: - Inhalte aus mehreren Datenbanken sind gleichzeitig auswertbar - Nutzer können Daten aus unterschiedlichen Ouellen suchen, analysieren und visualisieren, u.a. aus der Chemiedatenbank CAplusSM, der Patentdatenbank PCTFULL, und US-amerikanischen Volltextdatenbanken. - Einzigartige Beziehungen zwischen Datenelementen-nur STN AnaVist bietet die Möglichkeit, Beziehungen zwischen sieben unterschiedlichen Feldern aus Datenbankdokumenten - z.B., Firmen, Erfindern, Veröffentlichungsjahren und Konzepten-darzustellen. - Gruppierung und Bereinigung von Daten - vor der Analyse werden Firmen und ihre unterschiedlichen Namensvarianten von einem "Company Name Thesaurus" zusammengefasst. - Konzept-Standardisierung - Durch das CAS-Vokabular werden Fachbegriffe datenbankübergreifend standardisiert, so dass weniger Streuung auftritt. - Interaktive Präsentation der Beziehungen zwischen Daten und Diagrammenwährend der Auswertung können Daten zum besseren Erkennen der Beziehungen farblich hervorgehoben werden. - Flexible Erstellung der auszuwertenden Rechercheergebnisse - Rechercheergebnisse, die als Ausgangsdatensatz für die Analyse verwendet werden sollen, können auf zwei Arten gewonnen werden: zum einen über die in STN® AnaVist(TM) integrierte Konzept-Suchfunktion, zum anderen durch problemlose Übernahme von Suchergebnissen aus der bewährten Software STN Express® with Discover! TM Analysis Edition, Version 8.0
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.319-322
  10. Tscherteu, G.; Langreiter, C.: Explorative Netzwerkanalyse im Living Web (2009) 0.01
    0.010243452 = product of:
      0.04097381 = sum of:
        0.04097381 = weight(_text_:und in 4870) [ClassicSimilarity], result of:
          0.04097381 = score(doc=4870,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.33931053 = fieldWeight in 4870, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4870)
      0.25 = coord(1/4)
    
    Abstract
    Die Zahl von Netzwerkakteuren steigt ebenso beständig wie die Menge an Inhalten, die von denselbigen produziert wird. Wir stellen visuell orientierte explorative Werkzeuge vor, die bisher unsichtbare Netzwerkprozesse und Zusammenhänge aus der Vogelperspektive darstellen sollen. Anhand unseres Projekts "MemeMapper" untersuchen wir weiters, wie wir als Designer und Entwickler dazu beitragen können, dass sich Nutzer effektiver informieren und an der Produktion von Inhalten in ihrem Netzwerk beteiligen können.
  11. Jaklitsch, M.: Informationsvisualisierung am Beispiel des Begriffs Informationskompetenz : eine szientometrische Untersuchung unter Verwendung von BibExcel und VOSviewer (2016) 0.01
    0.00991818 = product of:
      0.03967272 = sum of:
        0.03967272 = weight(_text_:und in 3067) [ClassicSimilarity], result of:
          0.03967272 = score(doc=3067,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.328536 = fieldWeight in 3067, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.046875 = fieldNorm(doc=3067)
      0.25 = coord(1/4)
    
    Abstract
    Zielsetzung - Aufgrund der rasch wachsenden Anzahl an Publikationen zur Informationskompetenz ergibt sich eine zunehmende Notwendigkeit von Überblicksarbeiten. Dieser Betrag hat das Ziel, mittels Science Mapping einen Überblick über die wissenschaftliche Literatur zu schaffen. Forschungsmethoden - Unter Verwendung von BibExcel und VOSviewer wurden 1589 wissenschaftliche Artikel analysiert und drei verschiedene Visualisierungen erstellt. Ergebnisse - Es gibt ein relativ großes internationales Autorennetzwerk, in welchem die meisten Hauptakteure miteinander in Verbindung stehen. Die wichtigsten Schwerpunkte sind: Vermittlung von Informationskompetenz im Hochschulbereich, Prozessmodelle zum Informationssuchverhalten, Phänomenographie und Informationskompetenz im beruflichen Umfeld. Schlussfolgerungen - Viele der Schwerpunkte wurden schon vereinzelt in Review-Artikeln genannt, aber noch nie via Science Mapping zusammen visualisiert. Somit ermöglicht diese Arbeit erstmalig ein »big picture« der Produktionslandschaft. Künftige Arbeiten könnten die Literatur mit anderen Science Mapping Tools bzw. Visualisierungstechniken untersuchen.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1417/1251. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Jaklitsch, Markus: Informationsvisualisierung am Beispiel des Begriffs Informationskompetenz: Eine szientometrische Untersuchung unter Verwendung von BibExcel und VOSviewer. Masterarbeit (MSc), Karl-Franzens-Universität Graz, 2015. Volltext: http://resolver.obvsg.at/urn:nbn:at:at-ubg:1-90404.
  12. Bond: ¬Der grafische Assoziativ-OPAC AquaBrowser Library (2007) 0.01
    0.009807359 = product of:
      0.039229438 = sum of:
        0.039229438 = weight(_text_:und in 692) [ClassicSimilarity], result of:
          0.039229438 = score(doc=692,freq=22.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.3248651 = fieldWeight in 692, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=692)
      0.25 = coord(1/4)
    
    Content
    "Die Recherche im "klassischen" OPAC verlangt eine exakte Formulierung der Suchanfrage, aber viele Bibliotheksbenutzer wissen nicht genau, wonach sie eigentlich suchen. So bleiben oft wertvolle Treffer oder sogar Teile des Bibliotheksbestandes von den Bibliotheksbenutzern unentdeckt. Ein neues Produkt in der Angebotspalette des Bibliothekssoftware-Herstellers BOND GmbH & Co. KG schafft Abhilfe: Der AquaBrowser Library. Er sprengt die Grenzen der konventionellen OPAC-Suche und bietet ein neues, "ergonomisches" Sucherlebnis: die erste progressive und interaktive Suchumgebung. AquaBrowser Library bezieht in die OPAC-Suche automatisch assoziative Begriffe, Synonyme, unterschiedliche Schreibweisen, Übersetzungen sowie den Kontext mit ein. So werden automatisch neue Suchpfade generiert, der Suchbereich und somit auch das Trefferspektrum erweitert. Als Ergebnis erhält der Informationssuchende eine umfangreichere und qualitativ präzisere Ergebnisliste. Das Suchergebnis geht weit über eine Suchliste hinaus: Der Suchbegriff eines Benutzers wird mit den im Bibliothekskatalog enthaltenen Metadaten verglichen. Dabei werden assoziative Begriffe, Synonyme, alternative Schreibweisen, Übersetzungen in Fremdsprachen sowie der Kontext mit einbezogen. Daraus generiert sich automatisch eine visuelle Karte, die so genannte "Word Cloud". Sie stellt alle Assoziationen oder Überblicke über interessante Themenbereiche grafisch logisch dar. Die Begriffe sind Vorschläge und Hilfestellungen für den Bibliotheksbenutzer. Per Klick auf die "Word Cloud" kann er so neue Informationen entdecken und seine Suchanfrage präzisieren und lenken. Beispielsweise werden Tippfehler erkannt und alternative Schreibweisen angeboten. Gibt ein Leser den Suchbegriff "Auto" ein, beinhaltet das Suchergebnis auch Medien zu "PKW", "Kraftfahrzeug" oder "KFZ". Es werden sogar Treffer angezeigt, bei denen der gesuchte Begriff in einer anderen Sprache (englisch, spanisch oder niederländisch) im Katalogisat hinterlegt ist (z.B. car). Bei jeder Suchabfrage erstellt AquaBrowser Library automatisch eine Liste relevanter Kriterien, nach denen der Benutzer seine Ergebnisse filtern kann. Ein Klick auf ein Kriterium genügt und schon werden die Suchergebnisse präzisiert. Auf diese Weise schränken Mediensuchende die Treffer zielgenau ein und gelangen so schnell und exakt zu der spezifischen Information, die sie brauchen. Die Verfeinerungskriterien sind übersichtlich anhand von Kategorien gegliedert (z.B. Schlagwort, Verfasser, Sprache, Personen, Thema, Reihe oder Jahr)."
  13. Maas, J.F.: SWD-Explorer : Design und Implementation eines Software-Tools zur erweiterten Suche und grafischen Navigation in der Schlagwortnormdatei (2010) 0.01
    0.009054018 = product of:
      0.036216073 = sum of:
        0.036216073 = weight(_text_:und in 4035) [ClassicSimilarity], result of:
          0.036216073 = score(doc=4035,freq=12.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.29991096 = fieldWeight in 4035, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=4035)
      0.25 = coord(1/4)
    
    Abstract
    Die Schlagwortnormdatei (SWD) stellt als kooperativ erstelltes, kontrolliertes Vokabular ein aus dem deutschsprachigen Raum nicht mehr wegzudenkendes Mittel zur Verschlagwortung von Medien dar. Die SWD dient primär der Vereinheitlichung der Verschlagwortung. Darüber hinaus sind in der Struktur der SWD Relationen zwischen Schlagwörtern definiert, die eine gut vorbereitete Suche stark erleichtern können. Beispiel für solche Relationen sind die Unterbegriff-/Oberbegriffrelationen (Hyponym/Hyperonym) oder die Relation der Ähnlichkeit von Begriffen. Diese Arbeit unternimmt den Versuch, durch die Erstellung eines Such- und Visualisierungstools den Umgang mit der SWD zu erleichtern. Im Fokus der Arbeit steht dabei zum einen die Aufgabe des Fachreferenten, ein Medium geeignet zu verschlagworten. Diese Aufgabe soll durch die Optimierung der technischen Suchmöglichkeiten mit Hilfe von Schlagwörtern geschehen, z.B. durch die Suche mit Hilfe Regulärer Ausdrücke oder durch die Suche entlang der hierarchischen Relationen. Zum anderen sind die beschriebenen Relationen innerhalb der SWD oft unsauber spezifiziert, was ein negativer Seiteneffekt der interdisziplinären und kooperativen Erstellung der SWD ist. Es wird gezeigt, dass durch geeignete Visualisierung viele Fehler schnell auffindbar und korrigierbar sind, was die Aufgabe der Datenpflege um ein Vielfaches vereinfacht. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  14. Eibl, M.: Visualisierung im Document Retrieval : Theoretische und praktische Zusammenführung von Softwareergonomie und Graphik Design (2000) 0.01
    0.0089630205 = product of:
      0.035852082 = sum of:
        0.035852082 = weight(_text_:und in 2802) [ClassicSimilarity], result of:
          0.035852082 = score(doc=2802,freq=24.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.2968967 = fieldWeight in 2802, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=2802)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeit versucht, die Recherche in Datenbankbeständen, die durch ihre Textorientierung für Ungeübte oftmals schwer handhabbar ist, durch die Einführung von Visualisierungen einfacher und nutzerfreundlicher zu gestalten. In seinem Ansatz hat Eibl nicht nur Aspekte verschiedener Datenretrieval-Modelle integriert, sondern auch Forderungen der Softwareergonomie und des Graphik-Designs umgesetzt
    Content
    Ausgangspunkt der vorliegenden Arbeit ist die Fragestellung, wie Anwender von Document Retrieval-Systemen bei der Formulierung einer Anfrage unterstützt werden können. Bei der Beantwortung dieser Frage gilt es zunächst, die verschiedenen Modelle des Document Retrieval auf ihre Stärken und Schwächen hin zu untersuchen. Es werden hier drei exemplarische Retrieval-Modelle herausgegriffen, die sich in ihrer Recherchegrundlage und Relevanzbehandlung stark voneinander unterscheiden: das Boolesche, das probabilistische und das vage Retrieval-Modell. Um den Recherchezugang beim Einsatz dieser Retrieval-Modelle anwenderfreundlich zu gestalten, wird auf das Mittel der Visualisierung zurückgegriffen. In ihr wird eine gute Möglichkeit gesehen, mit komplexer Information umzugehen, da sie im Gegensatz zu textbasierten Präsentationsformen der optisch ausgerichteten menschlichen Kognition sehr weit entgegenkommen kann. Jedoch zeigen zahlreiche Beispiele, dass Visualisierung keinesfalls als Allheilmittel gelten kann, sondern im Gegenteil sogar zu einer Komplexitätssteigerung der Materie führen kann. Eine genauere Analyse bereits bestehender Ansätze weist denn auch softwareergonomische Probleme nach und läßt die Neukonzeption einer Visualisierung aus softwareergonomischer Sicht notwendig erscheinen. Neben softwareergonomischen Überlegungen fließen auch Aspekte des Graphik Design in die Konzeption der Visualisierung mit ein. Dies ist insofern ein Novum, als beide Schulen einander bislang weitgehend ignorierten. Mit Hilfe des Graphik Design kann der Visualisierung eine ansprechendere Gestaltung gegeben werden, die eine erhöhte Anwenderakzeptanz bewirkt. Um die Kooperation von Softwareergonomie und Graphik Design auf eine allgemeingültige Basis stellen zu können, wird auch eine theoretische Zusammenführung vorgeschlagen. Auf der Basis dieser Vorüberlegungen wird eine Visualisierung vorgestellt, welche Aspekte der drei Retrieval-Modelle integriert: In ihrer Grundkonzeption ermöglicht sie Boolesche Recherche. In zwei Erweiterungen werden ein probabilistisches Ranking-Verfahren sowie die Möglichkeit der Erweiterung der Ergebnismenge durch vage Methoden zur Verfügung gestellt. Optisch verfolgt die Viz, sualisierung ein minimalistisches Design. Es werden zu eingegebenen Suchkriterien sämtliche möglichen Kombinationen mit der entsprechenden Anzahl der gefundenen Dokumente angezeigt. Die Codierung der Kombinationen erfolgt dabei rein über die Farbgebung, die durch die Farben der enthaltenen Suchkriterien bestimmt wird. Je nachdem, welche Erweiterung verwendet wird, verändert sich die Gestaltung der Visualisierung: Wird das probabilistische Rankigverfahren eingesetzt, so wird die Position der Kombinationen auf dem Bildschirm neu berechnet. Wird vages Retrieval eingesetzt, so erhalten die erweiterten Mengen ein neues graphisches Element. Um die Güte der Visualisierung zu ermitteln, wird sie in einem Nutzertest evaluiert. Es werden klassische Retrieval-Maße wie Recall und Precision ermittelt sowie in einem Fragebogen die Anwenderakzeptanz eruiert. Die Ergebnisse des Tests untermauern die zwei grundlegenden Thesen dieser Arbeit: Visualisierung ist ein sinnvolles Mittel, die Schwierigkeiten der Interaktion mit Document Retrieval-Systemen zu minimieren. Und die Integration von Softwareergonomie und Graphik Design ist nicht nur sowohl theoretisch als auch praktisch möglich, sondern in der Tat auch vorteilhaft
  15. Burkhard, R.: Knowledge Visualization : Die nächste Herausforderung für Semantic Web Forschende? (2006) 0.01
    0.0089630205 = product of:
      0.035852082 = sum of:
        0.035852082 = weight(_text_:und in 5794) [ClassicSimilarity], result of:
          0.035852082 = score(doc=5794,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.2968967 = fieldWeight in 5794, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=5794)
      0.25 = coord(1/4)
    
    Abstract
    Wer wird als erster die Vision des "Semantic Web" zur Realität machen? Vielleicht diejenigen Semantic Web Forschenden, die sich auf Knowledge Visualization konzentrieren. Dieser Artikel vermittelt einen ordnenden Überblick über das Thema Visualisierung für Semantic Web Forschende und beschreibt die wichtigen Perspektiven des optimalen Wissenstransfers. Der Artikel beschreibt die Vorteile von Visualisierungen und die Forschungsrichtungen, die für Semantic Web Forschende wichtig sind. Schließlich werden aktuelle Beispiele aus der Praxis, in denen das Nutzen, Finden oder Transferieren von Information eine Herausforderung war, beschrieben. Der Artikel vermittelt Praktikern in Firmen Lösungsansätze und zeigt Semantic Web Forschenden einen neuen Forschungsschwerpunkt, der nach der Etablierung von technischen Standards wichtig werden wird: Knowledge Visualization.
  16. Jäger-Dengler-Harles, I.: Informationsvisualisierung und Retrieval (2015) 0.01
    0.0089630205 = product of:
      0.035852082 = sum of:
        0.035852082 = weight(_text_:und in 2615) [ClassicSimilarity], result of:
          0.035852082 = score(doc=2615,freq=6.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.2968967 = fieldWeight in 2615, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0546875 = fieldNorm(doc=2615)
      0.25 = coord(1/4)
    
    Content
    Vgl. unter: http://eprints.rclis.org/28725/. Der Artikel basiert auf meiner mit dem VFI-Förderungspreis 2014 prämierten Masterarbeit "Informationsvisualisierung und Retrieval im Fokus der Informationspraxis". Diese ist auf dem Publikationsserver des Instituts für Informationswissenschaft der Fachhochschule Köln unter "http://publiscologne.fh-koeln.de/frontdoor/index/index/id/334/docId/334" verfügbar.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.3/4, S.416-438
  17. Leissler, M.; Hemmje, M: Portierung und Erweiterung der Relevanzkugelmetapher des LyberWorld-Werkzeuges um interaktive Informationsvisualisierungsmechanismen (1997) 0.01
    0.00887109 = product of:
      0.03548436 = sum of:
        0.03548436 = weight(_text_:und in 2386) [ClassicSimilarity], result of:
          0.03548436 = score(doc=2386,freq=2.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.29385152 = fieldWeight in 2386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=2386)
      0.25 = coord(1/4)
    
  18. Wachsmann, L.: Entwurf und Implementierung eines Modells zur Visualisierung von OWL-Properties als Protégé-PlugIn mit Layoutalgorithmen aus Graphviz (2008) 0.01
    0.008363743 = product of:
      0.033454973 = sum of:
        0.033454973 = weight(_text_:und in 4173) [ClassicSimilarity], result of:
          0.033454973 = score(doc=4173,freq=4.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.27704588 = fieldWeight in 4173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=4173)
      0.25 = coord(1/4)
    
    Abstract
    Diese Diplomarbeit beschäftigt sich mit der Erstellung eines PlugIns für den Ontologie-Editor Protégé. Das PlugIn visualisiert Objekt-Properties als Verknüpfungen zwischen zwei OWL-Klassen. Als Ausgangspunkt für die Entwicklung dient das PlugIn OWLViz, das Vererbungshierarchien von OWL-Klassen als Graphen darstellt. Die Platzierung der Knoten und Kanten des Graphen wird von Algorithmen der Programmbibliothek Graphviz vorgenommen.
  19. Eibl, M.; Mandl, T.: ¬Die Qualität von Visualisierungen : eine Methode zum Vergleich zweidimensionaler Karten (2004) 0.01
    0.00826515 = product of:
      0.0330606 = sum of:
        0.0330606 = weight(_text_:und in 3139) [ClassicSimilarity], result of:
          0.0330606 = score(doc=3139,freq=10.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.27378 = fieldWeight in 3139, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=3139)
      0.25 = coord(1/4)
    
    Abstract
    Zweidimensionale Karten dienen im Information Retrieval (IR) immer häufiger der Visualisierung von Dokumentbeständen. Über die Qualität der verschiedenen Methoden zur Erzeugung dieser Karten ist wenig bekannt. In diesem Artikel werden nach einem Überblick über Stand der Forschung und Technik zu Visualisierungen und ihrer Bewertung zwei Verfahren hinsichtlich ihrer Unterschiede verglichen. Die Evaluierung basiert auf der Perspektive des Benutzers beim Browsing in einer Karte. Das Experiment zeigt, dass die Methoden sowohl bei großen als auch bei kleinen Dokumentenmengen zu sehr unterschiedlichen Karten führen und zwischen den Karten keine Korrelation besteht. Das Ergebnis der Untersuchung ist in zweifacher Hinsicht interpretierbar. zum einen kann nicht davon ausgegangen werden, dass sich ein spezielles Verfahren der Dimensionsreduktion eindeutig anbietet, es muss also auf den speziellen Anwendungsfall hin überprüft werden, welches Verfahren anzuwenden ist. Zum anderen scheint aber auch kein Verfahren zu vollkommen unbrauchbaren Ergebnissen zu führen, so dass davon ausgegangen werden kann, dass die einzelnen Verfahren einander ergänzend unterschiedliche Aspekte des Dokumentbestandes beleuchten. Hierzu sollten weitere Tests folgen.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  20. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.01
    0.00826515 = product of:
      0.0330606 = sum of:
        0.0330606 = weight(_text_:und in 2678) [ClassicSimilarity], result of:
          0.0330606 = score(doc=2678,freq=40.0), product of:
            0.12075608 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.054483794 = queryNorm
            0.27378 = fieldWeight in 2678, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=2678)
      0.25 = coord(1/4)
    
    Content
    "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
    Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
    Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
    Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."

Years

Languages

  • d 44
  • e 11

Types

  • a 28
  • x 12
  • m 10
  • el 6
  • r 3
  • s 1
  • More… Less…