-
Mensing, P.: Planung und Durchführung von Digitalisierungsprojekten am Beispiel nicht-textueller Materialien (2010)
0.01
0.010199858 = product of:
0.04079943 = sum of:
0.04079943 = weight(_text_:und in 564) [ClassicSimilarity], result of:
0.04079943 = score(doc=564,freq=28.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.32090676 = fieldWeight in 564, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=564)
0.25 = coord(1/4)
- Abstract
- Im Jahr 2007 hat die GWLB gemeinsam mit der HAAB, der Universitätsbibliothek Johann Christian Senckenberg und mehreren Stiftungen die Königliche Gartenbibliothek Herrenhausen erworben. Neben den textuellen Materialien enthält die Bibliothek auch viele nicht-textuelle Materialien wie Herbarien, Zeichnungen und auch Gouachen mit Abbildungen von Obstsorten aus der ehemaligen Obstbaumplantage. Diese Gouachen in Mappen liegend bei der GWLB aufbewahrt. Die einzelnen Blätter tragen keine Titel, sondern sind am unteren Rand mit Bleistift durchnummeriert. Ohne die beigefügte ebenfalls durchnummerierte Liste mit Sortennamen ist keine eindeutige Zuordnung und die Nutzung somit nur eingeschränkt möglich. Die Überlegung zu einer digitalen Präsentation liegt daher nahe, denn "der ungehinderte Zugang zu elektronischen wissenschaftlich relevanten Publikationen von jedem Ort aus und zu jeder Zeit spielt in der digitalen Informationsgesellschaft eine immer bedeutendere Rolle." Oder um es drastischer zu formulieren: "Was nicht im Web ist, ist nicht in der Welt". Bevor jedoch mit der Digitalisierung begonnen werden kann, müssen einige Fragen vorab geklärt werden. Im Folgenden werden Kriterien, die bei der Planung und Durchführung von Digitalisierungsprojekten zu beachten sind, behandelt.
- Content
- Darin auch: "2.7 Erschließung der Digitalisate Die formale Erschließung von gedruckten Beständen wird in Deutschland nach RAK-WB bzw. RAK-OB durchgeführt. Im Gegensatz zu Druckwerken, die meist alle wichtigen Informationen selbst enthalten (Impressum), sind in oder an Kunstwerken und Bildern meist keine Angaben wie Autor, Künstler oder Entstehungsjahr zu finden. Für die Formalerfassung von Nichtbuchmaterialien sind in Deutschland die "Regeln für die alphabetische Katalogisierung von Nichtbuchmaterialien" anzuwenden (RAK-NBM), eine Erweiterung der o.g. RAK. Zur Erschließung von Kunstwerken wurde seit den 70er Jahren des 20. Jhds. die Marburger-Index-Datenbank (MIDAS) entwickelt, die auf dem AKL, ICONCLASS und auch RAK aufbaut. MIDAS findet hauptsächlich in Museen Anwendung, konnte sich aber aufgrund der nicht verbindlichen Nutzung nicht durchsetzen. Ebenfalls aus dem Museumsbereich stammt CIDOC CRM, das seit 2006 ISO-zertifiziert ist (ISO 21127:2006) und der Datenfeldkatalog zur Grundinventarisation. Um die inhaltliche Erschließung von Bibliotheksbeständen einheitlich gestalten zu können, wurde die Schlagwortnormdatei entwickelt. Diese Datei ist universell ausgerichtet und ist daher für Spezialgebiete nicht tief genug ausgearbeitet. Im kunsthistorischen Bereich sind daher außerdem u.a. der AA und der AGM von Bedeutung. Als Klassifizierungssystem steht ICONCLASS zur Verfügung. Bei der inhaltlichen Erschließung ist darauf zu achten, dass irrelevante Informationen nicht zur unnötigen Vergrößerung des Kataloges führen. Um durchgängig eine größtmögliche Nutzerorientierung bieten zu können, sollten die gewünschten Prioritäten der Erschließung in einer Richtlinie festgehalten werden. Zur Interpretation von Bildern wurde von Panofsky ein 3-Stufen-Modell entwickelt, dass sich in prä- oder vor-ikonografische, ikonografische Beschreibung und ikonologische Interpretation unterteilen lässt. In der ersten Stufe werden nur die dargestellten Dinge oder Personen skizziert, ohne ihre Bedeutung zueinander zu interpretieren. Dies erfolgt erst in der zweiten Stufe. Hier wird das Ahema des Kunstwerkes allerdings ohne weitere Deutung benannt. In der dritten Stufe wird schließlich geklärt, warum dieses Werk so geschaffen wurde und nicht anders.
2.8 Metadaten und Austauschformate . . .
-
Springer, M.: Wie frei bleibt das Internet? : Das neue Medium zwischen Anarchie und Zensur (2011)
0.01
0.010199858 = product of:
0.04079943 = sum of:
0.04079943 = weight(_text_:und in 386) [ClassicSimilarity], result of:
0.04079943 = score(doc=386,freq=28.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.32090676 = fieldWeight in 386, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=386)
0.25 = coord(1/4)
- Content
- "Kürzlich sah ich mir auf DVD den »Glöckner von Notre-Dame« in der Hollywood-Verfilmung von 1939 an und war schon vom Beginn angetan. Da begutachtet der französische König zusammen mit dem Dompropst Frollo neugierig eine der ersten Buchpressen. Ludwig XI. gibt sich - zumindest in diesem Film - als allem Modernen aufgeschlossener Monarch und lobt das neue Medium des Buchdrucks als Vehikel für Aufklärung und Volksbildung. Der Kirchenmann hingegen wittert im Verlust des klerikalen Meinungsmonopols sofort die Gefahr von Aufruhr und Ketzerei. Die Debatte um Wohl und Wehe des Internets, angeheizt durch Veröffentlichungen unzähliger Geheimdokumente auf der Plattform Wikileaks, baut ähnliche Fronten auf. Die Befürworter begrüßen einen ungeahnten Zuwachs an Informationsfreiheit und bürgerlicher Mündigkeit, während Kritiker vor der riskanten Störung heikler diplomatischer Beziehungen durch Geheimnisverrat warnen. Beunruhigend fand ich als Kreditkartenbesitzer, wie schnell Mastercard und Visa bereit waren, offenbar dem Druck von Regierungen gehorchend, Wikileaks vom Zahlungsverkehr auszusperren und damit in seiner auf Spenden angewiesenen Existenz zu bedrohen. So etwas läuft nach meiner Sicht auf indirekte-ökonomisch gehebelte-staatliche Zensur hinaus.
Doch so eindeutig sind Gut und Böse im Dreieck Bürger-Staat - Internet nicht verteilt. Nur auf den ersten Blick steht der Einzelne, der sein Recht auf uneingeschränkte Information beansprucht, im Bund mit einem möglichst freien Internet, während der Staat das neue Medium angeblich bloß reglementieren will. Zu einer anderen Einschätzung kommt der Rechtswissenschaftler Tim Wu von der New Yorker Columbia University in seinem Buch »The Master Switch: The Rise and Fall of Information Empires«. Wu untersucht die Geschichte der Medien Radio, Tonträger, Film, Fernsehen und Internet in den USA und demonstriert an zahlreichen Beispielen ein wiederkehrendes Muster: Die jeweils neueste Technik macht Firmen reich, die mit ihrer wirtschaftlichen Macht ein Monopol darauf durchsetzen. Erst die Einführung der nächsten »neuen« Medientechnik bricht die ökonomische Alleinherrschaft. Im Licht von Wus Befund muss ich mein Dreieck zu einem Quadrat erweitern, mit mächtigen Medienkonzernen als viertem Pol. Aktuelle Beispiele wären Google und Apple. Jeder von beiden schickt sich auf seine Weise an, ein geschlossenes System zu organisieren, das sich krakengleich über das Internet ausbreitet, um es möglichst umfassend zu vereinnahmen. Der Grund ist nicht etwa, dass die zwei Möchtegern-Monopolisten »böse« wären - sie sind nur einfach auf expansives Wirtschaften programmiert. Im Viereck Bürger -Staat - Internet -Wirtschaft kommt darum dem Staat laut Wu eine durchaus positive Rolle zu: Er soll verhindern, dass das neue Medium von Konzernen vereinnahmt wird. So könnte etwa eine Kartellbehörde ihr Augenmerk speziell auf geballte Medienmacht im Internet richten. Übrigens: Wissen Sie, warum »Der Glöckner von Notre-Dame« in Hollywood gedreht wurde? Auch darüber gibt Wus Buch Auskunft. Die Firma des Erfinders Thomas Edison kontrollierte Anfang des 20. Jahrhunderts mit ihren Patenten die gesamte Filmtechnik. Unter anderem diktierte sie, dass ein Kinofilm nur wenige Minuten lang sein dürfe, um die Aufmerksamkeit des Publikums nicht zu ermüden. Vor solchen Vorschriften flohen die ersten Filmstudios von der Ostküstenach Kalifornien - und gründeten Hollywood."
-
Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011)
0.01
0.010199858 = product of:
0.04079943 = sum of:
0.04079943 = weight(_text_:und in 440) [ClassicSimilarity], result of:
0.04079943 = score(doc=440,freq=28.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.32090676 = fieldWeight in 440, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=440)
0.25 = coord(1/4)
- Abstract
- "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
- Content
- "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
- Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
- "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
-
Raicher, E.: Möglichkeiten und Grenzen von Primo bei der Einführung in deutschsprachigen Bibliotheken und Bibliotheksverbünden (2010)
0.01
0.010184978 = product of:
0.040739913 = sum of:
0.040739913 = weight(_text_:und in 311) [ClassicSimilarity], result of:
0.040739913 = score(doc=311,freq=38.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.32043862 = fieldWeight in 311, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=311)
0.25 = coord(1/4)
- Abstract
- Bibliotheksnutzende werden heute bei der Suche nach Informationen mit verschiedensten Suchoberflächen von Katalogen, Datenbanken und Repositories konfrontiert. Eine Möglichkeit, die Recherche nach gedruckten und elektronischen Medien bequemer zu gestalten, ist die Implementierung eines Werkzeuges auf Basis von Suchmaschinentechnologie, mithilfe dessen alle integrierten Quellen über nur ein Suchfeld gleichzeitig abgefragt werden können. Im Rahmen dieser Diplomarbeit sollen die Erfahrungen von Bibliotheken mit einer solchen Software, nämlich Primo von Ex Libris, verglichen werden. Zweck ist es herauszufinden, welche Erwartungen der Einsatz von Primo in Bibliotheken bzw. Bibliotheksverbünden im deutschsprachigen Raum einerseits wecken und andererseits erfüllen kann. Ausgangspunkt für die Arbeit war dabei die geplante Einführung von Primo an der Bibliothek der Wirtschaftsuniversität Wien (WU), bei der man bereits auf Erfahrungswerte anderer Institutionen zurückgreifen möchte. Eine der ursprünglichen Hypothesen ist, dass der Implementierungsaufwand von Primo durch die Serviceverbesserung für Bibliotheksnutzende durch zusammengeführte Informationen gerechtfertigt wird. Weiters wird angenommen, dass sich durch den Zusammenschluss mehrerer Bibliotheken beim Einsatz von Primo für die einzelnen Einrichtungen zusätzlich Verbesserungen im bibliotheksadministrativen Bereich ergeben, was deshalb relevant ist, weil für die österreichischen Bibliotheken eine Konsortiallösung für Primo angeboten wird. Auch dass durch den Einsatz von Primo Bibliotheksbestände aus verschiedenen Sammlungen einer Bibliothek in unterschiedlichen Medienformaten besser genutzt werden, ist eine Hypothese. Schließlich wird angenommen, dass sich Bibliotheksmanager durch den Einsatz von Primo Verbesserungen der Recherchebedingungen für Bibliotheksangestellte im Auskunftsdienst erhoffen. Um einen genaueren Einblick in die Funktionen von Primo zu bekommen, wurden anfänglich Informationen von der Anbieterfirma Ex Libris zusammengefasst.
Außerdem wurden die Pläne, Erwartungen und Befürchtungen der WU-Bibliothek im Zusammenhang mit Primo festgehalten. Aufgrund eines Vergleichs von Informationen aus Experteninterviews sollen anschließend bewährte Vorgehensweisen für andere Institutionen und Verbünde, die den Einsatz der Search & Discovery-Software planen, identifiziert werden. Zu diesem Zweck wurden Bibliothekarinnen und Bibliothekare aus wissenschaftlichen Bibliotheken befragt, die in den Einführungsprozess involviert waren. Dies sind im Speziellen Angestellte der Universitätsbibliothek Mannheim, der Universitäts- und Landesbibliothek Tirol in Innsbruck, der Universitätsbibliothek Wien und der Bibliothek der ETH Zürich, zugleich Host des Schweizer NEBIS-Verbunds. Ergänzend wurde als Primo-Host der österreichischen Bibliotheken die Österreichische Bibliothekenverbund und Service Gesellschaft mbH (OBVSG) kontaktiert. Dabei wurden von den Projektverantwortlichen insbesondere die Erwartungen vor dem Einsatz von Primo erfragt, aber auch mit welchen Hürden und Problemen die Implementierung der Software verbunden war. Ein Vergleich der erhaltenen Informationen erlaubt einen Rückschluss auf generell erhoffte Veränderungen durch die Einführung des Systems und häufig auftretende Ereignisse im Projektverlauf. Verglichen werden dabei nicht nur die Angaben der Primo einsetzenden Bibliotheken untereinander, sondern auch deren Erfahrungen mit den von Ex Libris angenommenen Projektverläufen. Abschließend werden auch noch die Erwartungen der WU-Bibliothek mit den gesammelten Informationen verglichen.
Die Ergebnisse der Analyse sind teils überraschend, so konnten die ursprünglichen Hypothesen aufgrund der Berichte seitens der Primo einsetzenden Bibliotheken nicht durchwegs bestätigt werden. Eine Verbesserung der Bestandsnutzung konnte teilweise bereits beobachtet werden, da in zwei Bibliotheken vor allem die Zugriffszahlen auf elektronische Datenbankinhalte nach dem Freischalten von Primo stark gestiegen sind. Auch dass der konsortiale Einsatz innerhalb eines Verbund Vorteile mit sich bringt, konnte bestätigt werden. Allerdings wurde auch der zusätzliche Kommunikations- und Abstimmungsaufwand betont, da sich die teilnehmenden Verbundbibliotheken aufgrund einer gemeinsamen Installation auf bestimmte Einstellungen einigen müssen. Einig war man sich in dem Punkt, dass der Aufwand bei der Einführung des Produkts letztlich durch die zu erwartende Serviceverbesserung für Bibliotheksnutzende gerechtfertigt wird. Tatsächliche Erfahrungswerte gibt es in diesem Bereich noch nicht, da die Einsatzdauer der Suchoberfläche zum Zeitpunkt der Befragungen in keiner der Bibliotheken lange genug für aussagekräftige Benutzerrückmeldungen war. Weniger angenommen wird allerdings eine Verbesserung der Recherchebedingungen für Bibliothekarinnen und Bibliothekare durch Primo, da man bei dem suchmaschinentechnologiebasierten Produkt die Möglichkeit zur Abfrage einzelner Datenfelder wie z.B. bei der Suchmaske einer relationalen Datenbank vermisst. Aus diesem Grund wird angenommen, dass die Mitarbeitenden bei der Dienstrecherche weiterhin auf die Bearbeitersicht des OPACs oder direkt auf Spezialdatenbanken zugreifen werden. Im Auskunftsdienst arbeiten die Bibliothekarinnen und Bibliothekare allerdings mit derselben Primo-Suchoberfläche wie die Bibliotheksnutzenden. Da sich im Zeitraum der Erstellung der Diplomarbeit laufend weitere Bibliotheken für den Einsatz von Primo entschieden haben, sollten diese nicht unberücksichtigt bleiben. Im Anhang befinden sich daher die Informationen, die von Projektmitgliedern der Bibliothek der Veterinärmedizinischen Universität Wien, der Österreichischen Nationalbibliothek und der Universitäts- und Landesbibliothek Münster zur geplanten Einführung der Software eingeholt wurden. Diese geben einen Ausblick auf die zukünftigen Implementierungsprojekte von Primo im deutschsprachigen Raum.
- Footnote
- Vgl. auch: Raicher, E.: Prima Primo!. In: Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.85-89.
-
Kaeser, E.: ¬Das postfaktische Zeitalter (2016)
0.01
0.010184978 = product of:
0.040739913 = sum of:
0.040739913 = weight(_text_:und in 4080) [ClassicSimilarity], result of:
0.040739913 = score(doc=4080,freq=38.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.32043862 = fieldWeight in 4080, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4080)
0.25 = coord(1/4)
- Abstract
- In der digitalen Welt wäscht ein Permaregen der Informationen ganz zentrale Standards wie Objektivität und Wahrheit aus. Die Folge: eine Demokratie der «Nichtwissenwollengesellschaft».
- Content
- "Es gibt Daten, Informationen und Fakten. Wenn man mir eine Zahlenreihe vorsetzt, dann handelt es sich um Daten: unterscheidbare Einheiten, im Fachjargon: Items. Wenn man mir sagt, dass diese Items stündliche Temperaturangaben der Aare im Berner Marzilibad bedeuten, dann verfüge ich über Information - über interpretierte Daten. Wenn man mir sagt, dies seien die gemessenen Aaretemperaturen am 22. August 2016 im Marzili, dann ist das ein Faktum: empirisch geprüfte interpretierte Daten. Dieser Dreischritt - Unterscheiden, Interpretieren, Prüfen - bildet quasi das Bindemittel des Faktischen, «the matter of fact». Wir alle führen den Dreischritt ständig aus und gelangen so zu einem relativ verlässlichen Wissen und Urteilsvermögen betreffend die Dinge des Alltags. Aber wie schon die Kurzcharakterisierung durchblicken lässt, bilden Fakten nicht den Felsengrund der Realität. Sie sind kritikanfällig, sowohl von der Interpretation wie auch von der Prüfung her gesehen. Um bei unserem Beispiel zu bleiben: Es kann durchaus sein, dass man uns zwei unterschiedliche «faktische» Temperaturverläufe der Aare am 22. August 2016 vorsetzt.
- Das Amen des postmodernen Denkens Was nun? Wir führen den Unterschied zum Beispiel auf Ablesefehler (also auf falsche Interpretation) zurück oder aber auf verschiedene Messmethoden. Sofort ist ein Deutungsspielraum offen. Nietzsches berühmtes Wort hallt wider, dass es nur Interpretationen, keine Fakten gebe. Oder wie es im Englischen heisst: «Facts are factitious» - Fakten sind Artefakte, sie sind künstlich. Diese Ansicht ist quasi das Amen des postmodernen Denkens. Und als besonders tückisch an ihr entpuppt sich ihre Halbwahrheit. Es stimmt, dass Fakten oft das Ergebnis eines langwierigen Erkenntnisprozesses sind, vor allem heute, wo wir es immer mehr mit Aussagen über komplexe Systeme wie Migrationsdynamik, Meteorologie oder Märkte zu tun bekommen. Der Interpretationsdissens unter Experten ist ja schon fast sprichwörtlich.
- Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der republikanische Präsidentschaftskandidat Donald Trump. Aber Künstlichkeit des Faktischen bedeutet nun gerade nicht Unverbindlichkeit. Dieser Fehlschluss stellt sich nicht nur für die Erkenntnistheorie als ruinös heraus, sondern vor allem auch für die Demokratie. Zur Erläuterung benütze ich drei politische Szenarien: jenes der Wahrheit, jenes der Macht und jenes des «Bullshits». Im Szenario der Wahrheit überprüfen wir eine Aussage, bis wir den robusten Konsens für einen Entscheid gefunden haben: Die Aussage ist wahr oder falsch, tertium non datur. Lügner werden überführt, wie US-Aussenminister Colin Powell, der 2003 in der Uno die Intervention im Irak mit falschen faktischen Behauptungen begründete. Dieser Makel haftet ihm bis heute an. Dies gerade auch - und das muss man ihm zugutehalten -, weil Powell das Szenario der Wahrheit anerkennt. George W. Bush und seine Kamarilla im Irakkrieg etablierten dagegen das Szenario der Macht.
Ron Suskind, Journalist bei der «New York Times», zitierte 2004 einen Chefberater der Regierung Bush. «Er sagte, Typen wie ich gehörten, wie das genannt wurde, der <realitätsbasierten> Gemeinschaft an», schreibt Suskind. Aber so funktioniere die Welt nicht mehr: «Wir sind jetzt ein Weltreich», so der Berater, «und wenn wir handeln, schaffen wir unsere eigene Realität. Und während Sie in dieser Realität Nachforschungen anstellen, handeln wir schon wieder und schaffen neue Realitäten, die Sie auch untersuchen können, und so entwickeln sich die Dinge. Wir sind die Akteure der Geschichte, und Ihnen, Ihnen allen bleibt, nachzuforschen, was wir tun.» Als eine regelrechte Sumpfblüte aus dem Szenario des «Bullshits» präsentiert sich der gegenwärtige republikanische Präsidentschaftskandidat Donald Trump. Mit demonstrativer Schamlosigkeit produziert er Unwahrheiten und Widersprüche und schert sich einen Dreck um die Folgen. Paradoxerweise macht ihn diese Unglaubwürdigkeit umso glaubwürdiger, weil er sich im «Bullshit» geradezu suhlt. Er tritt auf mit dem Habitus: Seht doch, ich bin der, als den ihr Politiker schon immer sehen wolltet - ein Behaupter, Wortverdreher, Lügner! Ich bin nur ehrlich - ehrlich unehrlich! Das postfaktische Zeitalter lässt sich nun einfach dadurch charakterisieren, dass in ihm das Szenario der Wahrheit gegenüber den beiden anderen Szenarien immer mehr an Gewicht verliert. ...
- Bewirtschaftung von Launen Bewirtschaftung von Launen: Das ist die politische Verlockung des postfaktischen Zeitalters. Ihr kommt die Internetgesellschaft als «Nichtwissenwollengesellschaft» entgegen. Wir fragen nicht, wie man objektives Wissen gewinnt und wie es begründet ist. Wir googeln. Wir haben die Suchmaschine bereits dermassen internalisiert, dass wir Wissen und Googeln gleichsetzen. Das führt zum gefährlichen Zustand erkenntnistheoretischer Verantwortungslosigkeit. Google-Wissen ist Wissensersatz. Es treibt uns das «Sapere aude» Kants aus: Wagnis und Mut, nach Gründen zu fragen, eine Aussage zu prüfen, bis wir herausgefunden haben, ob sie stimmt oder nicht. Demokratie ist der politische Raum, der uns das Recht für dieses Fragen und Prüfen gibt. In ihm beugt sich die Macht dem Argument, nicht das Argument sich der Macht. Allein schon indem man dies ausspricht, muss man zugeben, dass von einem gefährdeten Ideal die Rede ist. Die Zersetzung der Demokratie beginnt mit der Zersetzung ihrer erkenntnistheoretischen Grundlagen. Das heisst, sie ist bereits im Gange. Zeit, dass wir uns bewusstmachen, was auf dem Spiel steht."
-
Schillinger, T.; Winterschladen, S.: Was die Welt zusammenhält : Sieben Menschen schützen das Internet (2010)
0.01
0.01011775 = product of:
0.040471 = sum of:
0.040471 = weight(_text_:und in 705) [ClassicSimilarity], result of:
0.040471 = score(doc=705,freq=54.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3183235 = fieldWeight in 705, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=705)
0.25 = coord(1/4)
- Content
- "Die Geschichte klingt wie eine Verschwörungstheorie oder ein Endzeit-Thriller. Es geht um das Internet. Es geht um sieben Menschen. Es geht um sieben Schlüssel, mit denen die Hüter das World Wide Web retten können. Der Plot geht so: Im Falle eines Cyberangriffs kommen die Bewahrer an einem geheimen Ort in den USA zusammen, um dort das Internet neu zu starten. So fiktiv es sich anhört: Seit vergangener Woche, mit Einführung des Online-Sicherheitssystems DNSSEC (Domain Name System Security), gibt es dieses geheimnisvolle Team tatsächlich. Das Internet ist ein verführerisches Ziel für Attacken. Mehr als zwei Drittel aller Deutschen sind online, weltweit jeder Fünfte. Online-Banking, Internetauktionen, soziale Netzwerke wie Facebook und Twitter - ein großer Teil unseres Lebens spielt sich in der virtuellen Welt ab. "Wenn das Internet weltweit lahm gelegt ist, ist die Welt lahm gelegt", sagt Isabell Unseld vom Anti-Viren-Spezialisten McAfee. Kaum vorstellbar, wenn Kriminelle diese Schwäche ausnutzen könnten. An diesem Punkt der Geschichte kommen die sieben Herrscher über das Internet wieder ins Spiel. Sie leben in Tschechien, Kanada, China, Trinidad Tobago, Burkina Faso, USA und Großbritannien. Einer von ihnen hat sich jetzt verraten. Paul Kane, ein Engländer, hat erzählt, dass er seinen Schlüssel in einer bombensicheren Tasche in einem Tresor aufbewahre.
Mit der Einführung des Online-Sicherheitssystems DNSSEC am 15. Juli, soll gewährleistet werden, dass sich bei der Eingabe einer Adresse tatsächlich nur der angesteuerte Server meldet. Jeder Server erhält einen digitalen Ausweis. Die Namen werden auf 13 Servern auf der Welt verwaltet. Was das alles mit den sieben Schlüsselträgern zu tun hat? Sie kämen zum Einsatz, wenn der Masterschlüssel, der die Namen codiert, geknackt wird. Durch das Zusammenführen ihrer Schlüssel können sie einen neuen Mastercode erzeugen. Gegen eine physische Zerstörung kann aber auch der Geheimbund nichts tun. Sollten die wichtigsten Server zerstört oder Tiefseekabel gekappt werden, wären sie machtlos. Dass es Terroristen aber gelingt alle wichtigen Server und Kabel auf einmal auszuschalten, ist sehr unwahrscheinlich."
"Gefährlicher Alltag Sicherheit und Überlegenheit in Forschung, Wirtschaft und Militär waren Antriebe für die Entwicklung des Internets und sie sind zugleich auch eine Gefahr für die Online-Nutzer. Seit in fast allen Büros in den Industrie- und Schwellenländern Computer mit Internetanschluss stehen, spähen Datendiebe im Auftrag von Staaten und Firmen Forschungsinformationen oder Regierungspläne aus. Cyberwar ist kein Kino mehr, es ist Alltag. Das Bundesamt für Sicherheit und Informationstechnik und der Verfassungsschutz warnen regelmäßig vor Angriffen auf die Computer der Bundesbehörden. Vornehmlich handelt es sich um Versuche, sensible Berichte zu erhalten. Forschungsinstitute und forschende Unternehmen sind ebenso Ziel von Spionageangriffen aus dem Netz. Aufgrund der Sensibilität des Internets ernannte beispielsweise US-Präsident Barack Obama Cybersicherheit zu einer der wichtigsten Aufgabe innerhalb der Landesverteidigung. Dieses Vorgehen dürfte nicht zuletzt auch aus der Erfahrung der USA selbst resultieren, die im Kosovo-Krieg auch Cyber-Waffen eingesetzt haben sollen: Manipulation von Luftabwehr und Telefonnetzen sowie von Bankkonten."
"Welt-weite-Wirtschaft Innovativ und erfolgreich sein, bedeutet schnell sein - und nichts hat Wirtschaft und Forschung in den vergangenen Jahren so extrem beschleunigt wie das Internet. Ingenieure in Indien und den USA arbeiten mittels virtueller Produktmodelle gemeinsam an der Entwicklung eines neuen Autos, Manager beraten sich per Videokonferenz, Forscher tauschen Datensätze per Mausklick aus. Nicht nur die großen Konzerne haben die Vorteile einer vernetzten Welt erkannt. Laut einer Studie des Netzwerks Elektronischer Geschäftsverkehr nutzten 2008 in Deutschland rund 71 Prozent der kleinen und mittleren Unternehmen das Internet zur Kundenbetreuung und sogar 90 Prozent zum Datenaustausch. Arbeitsabläufe verändern sich und schaffen neue Beschäftigungsfelder für Webdesigner, Software-Entwickler oder Programmierer. Ganze Wirtschaftszweige wandern ins Netz, der Online-Handel blüht. 2009 etwa betrug der Anteil des Internethandels am Gesamt-Versandhandel erstmals über 50 Prozent - die Deutschen gaben mit 15,4 Milliarden Euro rund 15 Prozent mehr im Internet aus als noch ein Jahr zuvor, zeigt eine Studie von TNS Infratest. Alleine der weltweite Marktführer Amazon setzte 2009 rund 25 Milliarden Dollar um."
"Am Anfang war der Schock Ohne Satelliten gäbe es womöglich gar kein Internet. Denn als Antwort auf den Sputnik-Schock gründet die US-Regierung 1957 ihre neues Forschungszentrum Arpa (Advanced Research Projects Agency). Nachdem die Wissenschaftler in 18 Monaten den ersten US-Satelliten gebaut haben, entwicklen sie Computernetzwerke. Die Dezentralität ist ihnen besonders wichtig. Die verschickten Informationen werden in Pakete zerteilt und über verschiedene Wege zum Empfänger geschickt. Fällt unterwegs ein Knoten aus, etwa im Krieg, suchen sich die Teile der Botschaft den unbeschädigten Weg. Die Kommunikation ist so kaum zu unterbinden. Das Arpanet gilt als die Geburtsstunde des Internet. Die Universität Los Angeles (UCLA) verbindet sich 1969 mit dem Rechner von Stanford. Als erste Botschaft ist das Wort "login" verabredet. Doch nach dem L und dem O ist Schluss. Die Verbindung ist zusammengebrochen, die Revolution hat begonnen. Über das rasant wachsende Netz tauschen sich Forscher aus. Damals lässt sich das Netz aber nur von Profis nutzen. Erst mit der Entwicklung des World Wide Web am Kernforschungszentrum Cern bekommt das Netz Anfang der 90er Jahre das Gesicht, das wir heute kennen."
"Meeres-Browsen Satellit hin, Satellit her: Die Datenströme dieser Welt laufen nach wie vor durchs gute alte Tiefseekabel. Allein die Glasfaserkabel, die auf den Meeresböden liegen, summieren sich auf eine Gesamtlänge von rund 850 000 Kilometer. 95 Prozent des grenzüberschreitenden Datenverkehrs werden über die Verbindungen unter der Wasseroberfläche abgewickelt. Die Entscheidung fürs Kabel und gegen den Satellit hat drei Gründe: Der Kabelweg ist billiger, weniger störanfällig und kann weit größere Datenmengen bewältigen. Google hat die Verlegung des 9600 Kilometer Unity-Kabels mitfinanziert, das seit April Japan mit der Westküste der USA verbindet. Es hat 230 Millionen Euro gekostet und kann 4,8 Terabits (oder umgerechnet den Inhalt von 8000 CDs) pro Sekunde transportieren. Angeblich nutzt Google 20 Prozent der Datenkapazität des Kabels. 70 Prozent der Schäden an Tiefseekabeln werden von Fischernetzen und Ankern verursacht. Das erste transatlantische Kabel wurde 1858 zwischen Irland und Neufundland verlegt und diente der Telegrafie."
-
Walter, M.: Unzulässige Überinterpretation : Schuld und Strafe (2010)
0.01
0.0100952415 = product of:
0.040380966 = sum of:
0.040380966 = weight(_text_:und in 673) [ClassicSimilarity], result of:
0.040380966 = score(doc=673,freq=84.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.31761533 = fieldWeight in 673, product of:
9.165152 = tf(freq=84.0), with freq of:
84.0 = termFreq=84.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=673)
0.25 = coord(1/4)
- Content
- "Wer als Naturwissenschaftler die Willensfreiheit verneint und deswegen dem geltenden Schuldstrafrecht seine Berechtigung abspricht, überschreitet Grenzen. Mehr noch, er rührt an Grundfesten unserer sozialen Ordnung. Just das macht der Neurobiologe Gerhard Roth zusammen mit der Strafrechtlerin Grischa Merkel. Sie bleiben mit diesem Angriff nicht bei der Voraussetzung des Strafrechts, der Annahme - bzw. Verneinung - individueller Schuld stehen, sondern denken weiter und plädieren für "eine notwendige Diskussion des Straf- und Maßregelvollzugs". Um ihren Gegenentwurf, ihr kriminalpolitisches Ergebnis, vorwegzunehmen: Ihnen schwebt eine Mischung aus polizeilichem Abwehr- und Maßregelrecht vor, in dem "in einem weit größeren Umfang Behandlungsangebote notwendig" seien. Der Akzent soll auf neurobiologisch konzipierten "verhaltensändernden Maßnahmen" liegen, die die falsche Programmierung der Täterpersönlichkeit korrigieren. Effektiv seien allerdings nur "frühzeitige Hilfsangebote", wobei unklar bleibt, ob analog der Arbeiten von Michael Gottfredson und Travis Hirschi die Kindheitsjahre gemeint sind ("Kinderknast"?) oder intensive Inhaftierungen schon bei ersten Auffälligkeiten. Wie auch immer, diese gedankliche Linie ist für alle, die die Entwicklung im Vollzugsbereich und die wesentlichen Befunde der Sanktionsforschung auch nur einigermaßen überblicken, trotz ihrer Schwammigkeit und fehlenden Originalität eine Provokation ersten Ranges, die entschiedenen Widerspruch herausfordert.
Doch gehen wir der Reihe nach vor und fragen, ob all das tatsächlich aus der Hirnforschung herzuleiten ist. Der Umstand, der die bisherige Welt gleichsam aus den Angeln heben soll, ist nach Roth/Merkel die postulierte Zwangsläufigkeit unseres Verhaltens, die alternative Verhaltensweisen (den "Alternativismus") in einer bestimmten Handlungs- und Entscheidungssituation ausschließe. Danach laufen sämtliche Geschehnisse nur ab, und wir bilden uns die Freiheit des Handelns lediglich ein. Diese in ihrer Tragweite kaum überschätzbare Annahme will Roth aus der Erkenntnis und Beschreibung biologischer Abläufe im Gehirn gewinnen. Dass man aber die Willensfreiheit schwerlich mit der Analyse einzelner körperlicher Abläufe zu widerlegen vermag, scheint ihm selbst zu dämmern. Denn in seinem Werk "Fühlen, Denken, Handeln" werden zur Verneinung des freien Willens nicht etwa nur die Gene oder körperliche Prozesse herangezogen, sondern der gesamte Kanon der Human- und Sozialwissenschaften, u.a. die "frühkindlichen Erfahrungen, spätere Erfahrungen und Einflüsse aus Elternhaus, Freundeskreis, Schule und Gesellschaft." Die betreffenden Erlebnisse sollen unser "emotionales Erfahrungsgedächtnis" derart "formen", dass für die Freiheit nichts mehr übrig bleibt. Schon lange vor Roth haben viele Forscher auf den großen Einfluss der individuellen Geschichte eines Menschen auf sein späteres Verhalten hingewiesen, allen voran die Psychoanalytiker. Dennoch geht die moderne Psychologie von einer innerpersönlichen Instanz, einem Ich, aus, das den Umgang mit entsprechenden Vorerfahrungen regelt. Diese Prozesse können gestört sein, sie sind indessen in gewöhnlichen Fällen keineswegs ausgeschlossen. Wir können nicht zu passiven Opfern individualgeschichtlicher Vorfälle reduziert werden. Das Auffinden körperlicher Substrate und Mechanismen für intellektuelle Vorgänge belegt möglicherweise, dass die betreffenden intellektuellen Leistungen auf bestimmte biologische Bahnen angewiesen sind. Mit solchen notwendigen Bedingungen für Gedanken oder Entschlüsse hat man aber nicht schon alle Bedingungen gefunden, die das geistige Leben in einem Menschen ausmachen. Die Leugnung der Willensfreiheit stellt deshalb eine unzulässige Überinterpretation einzelner biologischer Hirnprozesse dar.
Das ist nicht der einzige gedankliche Fehler, der Roth/Merkel unterläuft. Obgleich ein Mensch ihrer Meinung nach in der konkreten Entscheidungssituation nichts zu entscheiden hat, sondern Erlebtes nur gleichsam mechanisch "umsetzt", soll er dennoch verantwortlich sein. Aber wofür und wie? In diesem Schwenk liegt ein eklatanter Widerspruch, auf den Winfried Hassemer zu Recht hingewiesen hat. Die Würde eines Menschen liegt nicht zuletzt in der Fähigkeit, sich für das Gute und Richtige zu entscheiden. Anderenfalls dürften keine Ehrungen und Anerkennungen - öffentlich wie privat - mehr ausgesprochen werden. Denn jedes Mal wird die Entscheidung gelobt, die einem Lebensverlauf oder einer Tat zugrunde liegt. Entgegen Roth/Merkel ist es freilich nicht zulässig, den Satz umzudrehen und zu kritisieren, dass danach Menschen ohne Entscheidungsfreiheit keine Würde hätten. Der Denkfehler besteht insoweit darin, dass ja nicht behauptet wird, die Würde folge allein und ausschließlich aus der Entscheidungsfreiheit. So haben weder Kinder in den ersten Lebensjahren noch psychisch Kranke eine "Würde zweiter Klasse". Hätten Roth und Merkel Recht, wäre jedem Kriminalrecht, auch dem auf Erziehung abhebenden Jugendrecht, der Boden entzogen. Denn die gesetzlich kodifizierten Strafnormen sollen das Unrecht herausstellen, elementare Verhaltensgebote betonen, die Normbefolgung stabilisieren und vor der Begehung von Straftaten warnen oder gar abschrecken.Dieses gesamte generalpräventive Unterfangen liefe leer, falls die Menschen gar nichts zu entscheiden hätten. Im Gegenteil: Das Kriminalrecht, das an die Normbeachtung appelliert, wäre eine große gesellschaftliche Lüge, die die wissenschaftliche Erkenntnis vernebelte, alle Straftäter vom Wirtschaftskriminellen bis hin zum Vergewaltiger zu Opfern einer unwahren Freiheitsideologie machte. Roth und Merkel ist zuzugeben, dass die Möglichkeit alternativen Entscheidens, die sie abstreiten, schwer nachweisbar ist. Hat sich jemand für eine Handlung, beispielsweise einen Ladendiebstahl, entschieden, bleibt die Frage, ob er nicht auch eine andere Entscheidung hätte treffen können, hypothetisch und auf eine nicht mehr einholbare Vergangenheit gerichtet.
Doch haben die Sozialwissenschaften durchaus theoretische Ansätze entwickelt, die die Annahme einer - immer nur relativen - Willensfreiheit mehr als nahe legen. Dazu gehören etwa die nicht geringen Studien, die von einem Kosten-Nutzen-Modell ausgehen, bei dem individuell kalkulierte Vor- und Nachteile gegeneinander abgewogen werden, einschließlich ideeller Momente wie beispielsweise Anerkennung durch andere. Freilich ist es prinzipiell vorstellbar, dass sämtliche Einflussfaktoren auf den Plan gerufen werden und das Gehirn dann lediglich eine Rechenoperation durchführt. Aber hat es auch einen vorgefertigten Maßstab, mit dem die jeweiligen Einflussstärken bestimmt werden? Entscheidend scheint mir die soziale Wirklichkeit in dem Sinne zu sein, dass wir ohne die Vorstellung der Willensfreiheit schlicht nicht leben können. Tagtäglich behandeln wir uns gegenseitig als vernunftbegabte Wesen, die ansprechbar und in ihrem Verhalten beeinflussbar sind, nicht nur durch das Hervorrufen bestimmter Reflexe. Von der staatlichen Verfassung bis zur persönlichen Lebensgestaltung bauen wir auf die Vermittlung von Sachgesichtspunkten und Argumenten.
Das Strafrecht ist da keine Ausnahme und erst recht kein intellektuelles Spiel. Es hat vielmehr die Aufgabe, elementare Rechtsgüter wie Leben, Freiheit und Eigentum zu schützen. Die Methoden sind ebenfalls die der mitmenschlichen Kommunikation. Die Gesellschaft appelliert primär an die Einsicht. Dieser Appell setzt jedoch, soll er sinnvoll sein, die Fähigkeit zur Steuerung voraus. Vordergründig betrachtet sind die Konsequenzen, die Roth und Merkel aus ihrer Grundannahme zum (fehlenden) freien Willen ziehen, gar nicht so schlimm: Behandlungsangebote müssen her! Wer will dagegen etwas einwenden? Doch übersehen sie dabei das Entscheidende, nämlich die Erfahrungen, die bislang im Straf- und Maßregelvollzug gesammelt wurden und in Deutschland gewöhnlich mit dem Begriff Sozialtherapie umschrieben werden. Das A und O des Ganzen ist die Einübung des Umgangs mit Freiheit(en - in Gestalt von Zeit, Geld usw.), die Ausbildung von Selbstbeherrschung, die Übernahme von Verantwortung für andere. Die Basis all dessen bildet die Vorstellung eines für sich selbstverantwortlich handelnden Menschen, der vor allem die Sphäre und Rechte anderer zu respektieren weiß. Behandlung nach diesem Verständnis muss angeboten und überzeugend vermittelt werden. Demgegenüber stellen sich die Folgerungen, die aus der Determinismus-Perspektive Roths zu ziehen wären, als Aliud dar. Sie kontrastieren im Wesentlichen, weil danach die Bemühungen nur darum kreisen könnten, den Gefangenen so zu konditionieren, dass er "richtig läuft". Eine solche Praxis würde dem Menschenbild des Grundgesetzes und auch internationalen menschenrechtlichen Vorgaben, an denen Merkel so viel liegt, klar widersprechen. Vielleicht meinen Roth/Merkel derartige Täterbehandlungen nicht oder nicht ausschließlich. Nur: Wenn dem nicht so ist, geraten sie in Widerspruch zu ihren eigenen Prämissen. Im Widerspruch zu den eigenen Aussagen stehen auch die Hoffnungen, die die Autoren mit ihrem Text verbinden. Denn die Freiheit verneinenden Ausführungen sind ja ersichtlich in der Absicht verfasst, die Leser in der Sache zu überzeugen und zu Folgeentscheidungen zu veranlassen, die aus besserer Einsicht und in freier Abwägung der Gesichtspunkte und Argumente getroffen werden. Auch wenn ich diesem Wunsch nicht nachkommen kann, mag ich mich des Schmunzelns darüber nicht zu erwehren, dass Roth/Merkel wenigstens in dieser Beziehung einen "Alternativismus" für möglich halten."
- Footnote
- Erwiderung auf: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Bezugnahme auf: Hassemer, W.: Haltet den geborenen Dieb! In:FAZ vom 15.06.2010. Vgl. Erwiderung: Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Vgl. Fortsetzung: Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4). [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Pauen, M.: Das Schuldprinzip antasten, ohne es abzuschaffen: Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung?. In: Frankfurter Rundschau. Nr.170 vom 26.07.2010, S.22-23. Vgl.: http://www.fr-online.de/top_news/?em_cnt=2814820&em_loc=2091.
-
Mertens, M.: Bewusstlos im Bett : im Schlaf organisiert sich das Gehirn komplett um (2011)
0.01
0.009913329 = product of:
0.039653316 = sum of:
0.039653316 = weight(_text_:und in 419) [ClassicSimilarity], result of:
0.039653316 = score(doc=419,freq=36.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.31189203 = fieldWeight in 419, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=419)
0.25 = coord(1/4)
- Content
- "Unser Bewusstsein, vor allem unser Selbstbewusstsein entsteht jeden Morgen aufs Neue. Während des Schlafs verschwindet es und am nächsten Morgen setzt es sich wieder zusammen", schreiben die Neurologen Peter Dal-Bianco und Peter Walla in ihrem aktuellen Buch zum Thema Gehirnforschung ("Verrückt, was unser Gehirn alles kann", Galila Verlag). "Im Halbschlaf, kurz vor dem tatsächlichen Aufwachen, werden wir so langsam wieder unseres Selbst bewusst." Warum das so ist, warum wir im Schlaf unser Bewusstsein verlieren, haben jetzt Münchner Wissenschaftler entschlüsselt. Jeder Schlaf ist ein kleiner Tod, lautet ein französisches Sprichwort. Eben noch wach und bei vollem Bewusstsein eine Seite gelesen, sind wir einige Sekunden später eingeschlafen, unserer selbst nicht mehr bewusst und nehmen äußere Reize kaum noch wahr. Warum das so ist, hat das Team um Philipp Sämann vom Münchner Max-Planck-Institut für Psychiatrie herausgefunden: Das Gehirn organisiert sich systematisch um, schreiben die Forscher in der Fachzeitschrift Cerebral Cortex. Die Wissenschaftler haben den Gehirnen von 25 jungen Probanden mithilfe funktioneller Magnetresonanztomografie (fMRT) beim Einschlafen zugeschaut. In dieser 26 Minuten dauernden Zeit unterschieden sie vier Phasen. Dabei legten die Wissenschaftler ihr Augenmerk auf zwei neuronale Netzwerke, die eng aneinander gekoppelt sind und einzelne Gehirnregionen mit einander verbinden, wenn wir wach, aber in Ruhe sind. Sie sind für verschiedene Aufmerksamkeitsprozesse zuständig.
Das Default Mode (Ruhezustand) Netzwerk (DMN) unterstützt nach innen gerichtete Aufmerksamkeit wie Selbstreflexion und das anticorrelated network (ACN) hat die Verarbeitung von Außenreizen zur Aufgabe. Beide arbeiten eng, aber zeitversetzt zusammen: Ist das eine besonders aktiv, sendet das andere weniger Signale und umgekehrt. Dieser abwechselnde Rhythmus zwischen Aktivitäts-Zunahme und -Abnahme beträgt etwa 20 bis 25 Sekunden. Die Messungen der Aktivitäten dieser beiden Netzwerke während der verschiedenen Schlafphasen zeigten nun, dass sich ihr Zusammenspiel veränderte. Das DMN verliert je nach Schlafstadium einen Teil seiner anatomischen Verknüpfungen. So wird etwa der Hippocampus, eine für Gedächtnisleistungen wichtige Region, bereits beim Einschlafen von diesem Netzwerk entkoppelt. Mit zunehmender Schlaftiefe wird der ebenfalls dazugehörige Frontallappen ganz abgehängt. In dieser Region ist die Planung zukünftiger Handlungen, die Bewegungskontrolle, sind Langzeitgedächtnis und Belohnungssystem des Gehirns angesiedelt. Verbindungen zum neuronalen Aufmerksamkeitsnetzwerk nehmen dagegen nur teilweise ab, so dass der Schlafende auf alarmierende Signale von außen noch reagieren kann. Das Gehirn ist im Schlaf also nicht passiv, sondern verändert seine Aktivität. Die Münchner Wissenschaftler konnten auch zeigen, dass das Gegen-Netzwerk ACN ab Schlafstadium zwei von seiner streng gegenläufigen Aktivität entkoppelt wurde, aber in allen Schlafphasen vorhanden war. Die Forscher vermuten, dass erst eine hohe Synchronisierung beider Netzwerke komplexe Funktionen ermöglicht, jedoch wichtige einfache Weckreize jederzeit verarbeitet werden können. Die geringere Aktivität und veränderte Kommunikation zwischen den Netzwerken erkläre, warum wir im Schlaf unser Bewusstsein verlieren.
Man müsse aber berücksichtigen, dass die Untersuchung sich auf die beiden Netzwerke DMN und ACN beschränke, schreibt Studienleiter Sämann in der Fachzeitschrift Cerebral Cortex. Auch andere sensorische und kognitive Netzwerke spielten im Wachzustand und beim Einschlafen eine Rolle. "Wir haben uns auf DMN und ACN konzentriert, weil sie mit äußerer und innerer Aufmerksamkeit zusammenhängen, die sich offensichtlich während des Schlafes ändert." Weitere Studien müssten zeigen, ob und wie weit spezifische Prozesse wie etwa das Langzeitgedächtnis während des Schlafes funktioniere. "In der klinischen Praxis sollten diese nachgewiesenen Netzwerkänderungen im Gehirn, die bereits bei einem kurzen Einnicken auftreten, zukünftig eine besondere Berücksichtigung bei der Interpretation von MRT-Untersuchungen bei Patienten finden", empfiehlt der Mediziner. Im Frühjahr vergangenen Jahres zeigte das Team um Philipp Sämann bereits, dass die beiden eng zusammen arbeitenden Netzwerke nach Schlafentzug durcheinander geraten. Bestimmte Areale des DMN verhalten sich nach einer auf etwa drei Stunden reduzierten Nachtruhe weniger synchron als nach einer normalen Nacht. Auch das gegenläufig schwingende Netzwerk zeigte Regionen, die aus dem Takt kamen. Schlafmangel stört offensichtlich das Zusammenspiel dieser für innen- und außengerichtete kognitive Prozesse so wichtigen Netzwerke. Eine regenerative Funktion des Nachtschlafs könnte sich also in der Wiederherstellung beziehungsweise Aufrechterhaltung einer intakten Ruhenetzwerkaktivität tagsüber widerspiegeln, vermuten die Schlafforscher. Welche genaue Funktion der Schlaf für den Organismus hat, ist seit Jahren ein wichtiges Forschungsthema - das Verständnis der neurobiologischen Prozesse, die der regenerativen Wirkung des Schlafes zugrunde liegen, ist jedoch noch sehr unvollständig. Erst seit kurzem ist es möglich, durch gleichzeitige Messung von Hirnströmen mit EEG und MRT die räumlichen Gehirnaktivitäten in den unterschiedlichen Schlafstadien darzustellen."
-
Qualman, E.: Socialnomics : wie Social-Media Wirtschaft und Gesellschaft verändern (2010)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 575) [ClassicSimilarity], result of:
0.039407786 = score(doc=575,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 575, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=575)
0.25 = coord(1/4)
- Abstract
- Wie Social Media die Produktion, das Marketing und den Verkauf von Produkten verändern Wie Unternehmen direkt mit ihren Kunden kommunizieren können Mit Kraft der neuen Medien die Umsätze steigern und Marketingkosten senken Das erste deutsche Buch, das die Auswirkungen der neuen Social Media aufzeigt Social Media wie Facebook, YouTube, Twitter & Co. sind die Medien der Zukunft und verändern das Verhalten der Menschen grundlegend. Ein Hype, der auch im Marketing eine große Rolle spielen kann. Erik Qualman zeigt in diesem Buch die Auswirkungen von Social Media und wie diese gezielt genutzt werden können. Es ist wegweisend für jedes E-Marketing, das die neuen Herausforderungen der Social Media erfolgreich einsetzen möchte sowie für alle, die wissen wollen, was es mit Social Media auf sich hat.
- Footnote
- Rez. in Mitt. VÖB 63(2010) H.1/2, S.148-149 (M. Buzinkay): "Endlich wieder ein Buchtitel, der mich nicht nur gleich angesprochen, sondern auch das gehalten, was er versprochen hat. Eine vertiefende Lektüre in ein sehr aktuelles und sehr wichtiges Thema, dass sowohl Einzelpersonen wie auch Organisationen, Unternehmen und Vereine gleichermaßen beschäftigen muss: "Wie Social Media Wirtschaft und Gesellschaft verändern" heißt der Untertitel des Werkes von Erik Qualman. Der Autor liefert für seine Behauptungen ausgesuchte Beispiele, diese seine Argumentation untermauern. Schön ist, dass man diese Beispiele gleich als Hands-on Tipps für seine eigene Online Arbeit nutzen kann. Bei der schier unendlichen Anzahl von Beispielen muss man sich aber fragen, ob man je in der Lage sein wird, diese nützlichen Hinweise jemals nur annähernd im eigenen Unternehmen umzusetzen. Um es kurz zu fassen: man kann das Buch mit ins Bett nehmen und in einem durchlesen. Fad wird einem nicht, nur genug Post-its sollte man mitnehmen, um alles wichtige zu markieren und zu notieren. Am nächsten Morgen sollte man das Buch aber sein lassen, denn das Geheimnis von Socialnomics ist die Umsetzung im Web. Eine dringende Empfehlung an alle Marketing-Interessierten!"
-
EndZeitKommunikation : Diskurse der Temporalität (2010)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 635) [ClassicSimilarity], result of:
0.039407786 = score(doc=635,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 635, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=635)
0.25 = coord(1/4)
- Abstract
- Unter End-Zeit-Kommunikation kann man sich vieles vorstellen - eine Trauerfeier, den Sturz einer Regierung oder den literarischen Abschied von Liebenden. Was Kommunikation ist, wissen wir mittlerweile, doch was ist Zeit, wann beginnt und endet sie und wie wird sie kommuniziert? Was meinen wir mit ruhigen, bewegten und schnelllebigen Zeiten? Ist Zeit für alle gleich oder systemspezifisch? Auch End-Zeit-Kommunikation braucht Zeit und reflektiert im Hier und Jetzt Ungleichzeitiges: Vergangenes und Künftiges, Erfahrungen und Erwartungen. Wohl wissend, dass dieses Paradoxon schwer erklärbar ist, versuchen die Autoren dieses Buchs, Antworten auf unterschiedliche Fragen zum Verhältnis von Kommunikation und Zeit zu finden.
- Content
- Inhalt: Westerbarkey, Joachim: Zeit - Annäherungen an ein Phantom. / Losch, Nimra: Die Zeit der Katze. Wie das Zusammenleben mit Katzen die Tier-Mensch-Kommunikation entwickelt. / Pointke, Florian: Endzeitstimmung. / Yeh, Sonja: Das Ende der großen Erzählungen?. / Heßling, Donna: Auf Leben und Tod. / Schmidt, Siegfried J.: "immer ist jetzt". / Skrobala, Jurek: Ende der Geschichte? End-Zeit-Vorstellungen in der postmodernen Medienphilosophie. / Völlmicke, Stephan: Konstrukte von Sterben und Tod. / Nebelsieck, Simone: Virtuelle Friedhöfe. / Gehrau, Volker: Der kultivierte Tod. / Kahr, Robert: School Shootings - Vergeltung nach Plan. / Leiß, Albert: Zeit aus der Sicht der Physik. / Bell, Saskia: Memory Books. / Nölleke, Daniel: In Rekordzeiten zu Kurzzeitruhm. / Neuberger, Christoph: "Jetzt" ist Trumpf. / Donk, André: Kein Gedächtnis nirgends?. / Westerbarkey, Joachim: Zeitweiliges - Mutmaßungen zur Mode. / Elstroth, Heinz-Jürgen: Höchste Zeit!. / Herbers, Martin Rolf: Zeit im Comic. / Merten, Klaus: Mose in der Wüste. / Kohring, Matthias: Vertrauen - ein Blankocheck auf Zukunft. / Scholl, Armin: Journalismusforschung als langsame Beobachtung. / Preusse, Joachim: Zeitvorstellungen in der PR. / Westerbarkey, Joachim: Wendezeit. 2010
-
Swiss Academic Software: Citavi - neue Funktionen im neuen Kleid (2010)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 655) [ClassicSimilarity], result of:
0.039407786 = score(doc=655,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 655, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=655)
0.25 = coord(1/4)
- Abstract
- Citavi ist die an deutschen Hochschulen am weitesten verbreitete Software für Literaturverwaltung und Wissensorganisation. In der neuen Version 3 erweitert der Hersteller Swiss Academic Software die Möglichkeiten zur Recherche, inhaltlichen Erschließung und Strukturierung des aus der Literatur gewonnenen Wissens.
- Content
- "Sichtbarste Änderung bei Citavi 3 ist die neue Aufteilung in drei Arbeitsbereiche - links die Navigation, in der Mitte Werkzeuge für die inhaltliche Arbeit und rechts die Schnellhilfe oder wahlweise die neue Vorschau. Diese zeigt nicht nur PDF-, Word-, Writer- oder Internet-Texte direkt an, sondern erlaubt auch deren inhaltliche Bearbeitung im Handumdrehen: Text markieren, auf »Zitieren« klicken sowie Schlagwörter oder Kategorien hinzufügen. Neu ist die Unterscheidung zwischen direkten und indirekten Zitaten, umfangreicheren Exzerpten und persönlichen Kommentaren. Komfortabel gestaltet Citavi 3 die Erfassung digitaler Dokumente, die sich auf Wunsch ordnerweise importieren lassen. Anhand der enthaltenen DOI oder PubMed-ID recherchiert die Software die bibliografischen Daten und verknüpft sie mit dem Dokument. Besonders bequem ist die Beschaffung der Originalliteratur. Citavi 3 sucht für Zeitschriftenaufsätze oder Zeitungsartikel den Volltext in mehreren großen Archiven und lädt die entsprechenden PDF-Dateien automatisch herunter. Bemerkenswert ist auch die Funktion zum Import unstrukturierter Literaturdaten, die dem Citavi-Anwender ein umständliches »Eintippen« bibliografischer Daten erspart. Anstelle eines »citation parsings« wählt Citavi einen anderen Weg: Jeder identifizier« Titeldatensatz wird mit mehreren Datenbanken abgeglichen. bevor die Treffer anschließend importiert werden.
Für den internationalen Einsatz wechselt Citavi 3 im laufenden Betrieb zwischen der deutschen und englischen Oberfläche - besonders praktisch für mehrsprachige Teams, die für ihre gemeinsameArbeitan einem Thema auch die neue Team-Version nutzen können. Hier werden Citavi-Projekte auf einem Netzlaufwerk gespeichert und können von mehreren Personen gleichzeitig bearbeitet werden. Professionelle Rechercheure werden Citavis erweiterte Online-Suche zu schätzen wissen: Die Software bildet für jede der über 4400 Informationsquellen deren spezifische Suchmöglichkeiten ab und kombiniert sie zu einer Schnittmenge, wenn gleichzeitig in mehreren Datenbanken oder Bibliothekskatalogen gesucht werden soll. Die Recherche-Strategie lässt sich speichern, damit jederzeit nachvollziehbar ist, wann in welcher Datenbank mit welchem Suchstring recherchiert wurde."
-
Hänger, C.; Kaldenberg, B.; Pfeffer, M.: Präsentation von E-Books mit Primo (2010)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 674) [ClassicSimilarity], result of:
0.039407786 = score(doc=674,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 674, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=674)
0.25 = coord(1/4)
- Abstract
- Man versetze sich für einen kurzen Augenblick in ein Wohnheimzimmer einer Studentin, die eine Hausarbeit in Politologie zum Thema "Der Sozialstaat in der öffentlichen Wahrnehmung der Bundesrepublik Deutschland von 1990 bis 2010" schreibt. Es ist zwei Uhr nachts, die Universitätsbibliothek hat geschlossen und die Studentin muss bis spätestens 14 Uhr am gleichen Tag die Arbeit einreichen. Verzweifelt sucht sie im Online-Katalog nach weiterer Literatur, um die Forschungsdiskussion in den Fußnoten weiter zu differenzieren. Sie findet auch die entsprechenden gedruckten Publikationen, auf die sie leider nicht zugreifen kann, da die Bibliothek geschlossen hat. Dabei hat "ihre" Universitätsbibliothek E-Books lizenziert, die sie allerdings nicht gefunden hat, da die E-Books nicht im Online-Katalog erfasst, sondern nur auf der Homepage der Einrichtung verlinkt sind. Bei der Rückgabe der Arbeit erfährt die Studentin, dass sie eine bessere Note erhalten hätte, wenn sie nur die Forschungsdiskussion differenziert dargestellt hätte. Eine vollständige Einbindung der lizenzierten E-Books im Online-Katalog ist der Wunsch vieler Bibliotheken. Insbesondere mit der vermehrten Verfügbarkeit konsortial oder national lizenzierter Sammlungen und Pakete ist das Angebot zusehends unübersichtlicher geworden und die bisherige Praxis, elektronische Dokumente parallel zu den gedruckten Exemplaren manuell formal und inhaltlich zu erschließen, stößt an organisatorische und ressourcenbedingte Grenzen. Einer direkten maschinellen Verarbeitung steht das Problem entgegen, dass die bibliografischen Metadaten der E-Books häufig im Format MARC 21 geliefert werden, die lokalen Bibliothekssysteme in der Regel aber mit den Formaten MAB2 und Pica arbeiten und Daten in anderen Formaten nicht verarbeiten können. Ein Lösungsansatz besteht darin, die bibliografischen Metadaten an zentraler Stelle zu konvertieren und zu harmonisieren und den Bibliotheken im Format MAB2 zur Verfügung zu stellen. Dieser Ansatz ist allerdings nur für statische E-BookSammlungen praktizierbar und durch den Aufwand der Konversion in "saubere" MAB2-Daten mit einem deutlichen zeitlichen Verzug verbunden.
-
Ricci, F.; Schneider, R.: ¬Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN (2010)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 261) [ClassicSimilarity], result of:
0.039407786 = score(doc=261,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 261, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=261)
0.25 = coord(1/4)
- Abstract
- RODIN (ROue D'INformation) ist ein Projekt, das einen alternativen Ansatz in der Erstellung von Informationsportalen verfolgt, indem es dem Benutzer ermöglicht, selbständig oder in Zusammenarbeit mit einem Informationsspezialisten heterogene Informationsquellen, die für ihn eine Relevanz besitzen, als Aggregat miteinander zu verbinden. Das System gewährleistet eine simultane Suche in allen Komponenten des Aggregats und ermöglicht die Suchverfeinerung durch Anbindung an bibliografische und enzyklopädische Ontologien.
- Content
- "Im Projekt RODIN (Roue d'information) wird die Realisierung einer alternativen Portalidee im Rahmen der E-lib.ch-Initiative (www.e-lib.ch) angestrebt. Dahinter verbirgt sich die Idee eines personalisierbaren Informationsportals zur Aggregation heterogener Datenquellen unter Verwendung von SemanticWeb-Technologie. Das allgemeine wissenschaftliche Interesse von RODIN besteht darin, zu überprüfen, inwieweit bibliografische Ontologien als Bestandteil des SemanticWeb für die Informationssuche gewinnbringend eingesetzt werden können. Den Benutzern werden hierbei unterschiedliche Funktionalitäten zur Verfügung gestellt. So können sie zunächst aus unterschiedlichen Informationsquellen jene auswählen, die für ihre Recherche von Relevanz sind und diese in Form von Widgets auf der Startseite des Informationsportals zusammenstellen. Konkret handelt es sich hierbei um Informationsquellen, die im Kontext von E-lib.ch bereitgestellt werden (bspw. Swissbib.ch, Rero-Doc) sowie um allgemeine Webressourcen (etwa Delicious oder Google-Books). Anschließend besteht die Möglichkeit, simultan über alle spezifizierten Quellen eine parallele Suche anzustoßen und - nach Beendigung dieser Metasuche - die Ergebnisse zu verfeinern.
Der Ausgangspunkt für die Suchverfeinerung ist ein Ergebnis aus der Treffermenge, für welches ein Ontologie-Mapping durchgeführt wird, d.h. dass ausgehend von den Daten und Metadaten des Suchergebnisses der semantische Kontext für dieses Dokument innerhalb einer Ontologie ermittelt wird. Bei diesen Ontologien handelt es sich um in SKOS-Daten überführte Thesauri und Taxonomien, die aus einem bibliothekswissenschaftlichen Umfeld stammen. Durch Ermittlung des ontologischen Kontexts stehen eine Reihe von Termen in Form von Synonymen, Hypernymen und Hyponymen zur Verfügung, die es dem Benutzer ermöglichen, seine Ergebnismenge gezielt einzuschränken, zu verallgemeinern oder auf ähnliche Begriffe auszuweiten. Nach der Bestimmung des weiteren Suchkontexts wird dann in allen vom Benutzer bereits ausgewählten Widgets eine neue Suche angestoßen und das zur Suchverfeinerung ausgewählte Dokument in seiner semantischen Ausrichtung zu den übrigen Informationsquellen kontextualisiert."
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
- Source
- Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
-
mho: Google erweitert Suchfunktion um Informationsdatenbank (2012)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 1136) [ClassicSimilarity], result of:
0.039407786 = score(doc=1136,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 1136, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1136)
0.25 = coord(1/4)
- Content
- "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
-
Warta, A.: Kollaboratives Wissensmanagement in Unternehmen : Indikatoren für Erfolg und Akzeptanz am Beispiel von Wikis (2011)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 1179) [ClassicSimilarity], result of:
0.039407786 = score(doc=1179,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 1179, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1179)
0.25 = coord(1/4)
- Abstract
- Neue Kommunikationsmedien wie Wikis, Blogs oder Social Networking Services haben in der Öffentlichkeit des WWW in den letzten Jahren große Resonanz erfahren. Der einzelne Nutzer ist nicht mehr nur passiver Konsument, sondern - auch als IT-Laie - zunehmend in der Lage, global aktiv zu werden. Unternehmen stehen gleichzeitig mehr denn je vor der Herausforderung, in einem immer dynamischeren und wissensintensiveren Wettbewerb weltweit zu bestehen. In vielen Unternehmen gab und gibt es daher Überlegungen, neue, dynamischere Kommunikationsmedien, die vielen Mitarbeitern aus dem Privatleben bekannt sind, auch intern einzusetzen. Doch der erfolgreiche Einsatz beispielsweise eines Wikis im Unternehmen ist ein komplexer und langwieriger Prozess. In dieser Arbeit geht es vorrangig um die Frage, wie der Erfolg oder Misserfolg beim Einsatz von Wikis in Unternehmen gemessen werden kann. Auf den Theorieteil zu Wissensmanagement, dem sog. "Social Web" und verschiedenen Forschungsperspektiven auf Wikis, folgt eine explorative Vorstudie zu den Erwartungen an ein Wiki in einem Unternehmen der Automobilindustrie. Den Schwerpunkt der Arbeit bildet eine aus einem qualitativen und einem quantitativen Part bestehende Hauptstudie, die auf einem Modell zur Messung des Erfolgs von Informationssystemen basiert. Im qualitativen Teil wurden zwölf semi-strukturierte Experteninterviews mit insgesamt 28 Teilnehmern in zehn Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen in ganz Deutschland mit dem Ziel durchgeführt, erfolgreich und noch nicht erfolgreich etablierte Wikis zu identifizieren. Die Wikis in diesen beiden Gruppen wurden anschließend im quantitativen Teil in den Bereichen Wachstum, Strukturierung, Qualität, Alter, Aktivität, Aktualität, Kollaboration, Abgrenzung, Integration, Awareness und Transparenz anhand von 74 Indikatoren verglichen. Statistische Signifikanztests dienten schließlich der Identifikation der Indikatoren, die für die Unterscheidung erfolgreich und noch nicht erfolgreich etablierter Wikis geeignet sind.
-
Franz, G.: ¬Die vielen Wikipedias : Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt (2011)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 1568) [ClassicSimilarity], result of:
0.039407786 = score(doc=1568,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 1568, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1568)
0.25 = coord(1/4)
- Abstract
- Mittlerweile sind mehr als zehn Jahre seit der Gründung der Wikipedia vergangen. Die kollaborativ zusammengestellte Online-Enzyklopädie blickt auf eine beispiellose Erfolgsgeschichte zurück und hat inzwischen sogar viele klassische Lexika das Fürchten gelehrt. Aber: Es gibt gar nicht die eine Wikipedia! Stattdessen handelt es sich bei dem Projekt um hunderte verschiedene, weitgehend voneinander unabhängig agierende Sprachversionen. Sie sind nicht nur unterschiedlich groß, sondern bestehen auch aus differierenden Inhalten. Artikel zu ein und demselben Stichwort können von Wikipedia zu Wikipedia erheblich voneinander abweichen. Von der Gemeinschaft bereits erarbeitetes Wissen steht daher nicht allen Nutzern in der Welt gleichermaßen zur Verfügung. Mit einem forcierten interlingualen Wissensaustausch ließe es sich aber für eine gegenseitige Bereicherung der Wikipedias nutzen. Das Buch gibt zunächst einen allgemeinen Überblick zur Wikipedia, geht auf ihre Entstehung, ihre Funktionsweise und auf die beteiligten Akteure ein. Auch das "Erfolgsgeheimnis" des Nachschlagewerks sowie aktuelle Herausforderungen werden herausgearbeitet. Die anschließende Untersuchung zeigt, wie sehr verschieden große Wikipedias voneinander differieren und wo die Unterschiede im Einzelnen liegen. Danach folgt eine Vorstellung von Ansätzen, Werkzeugen und Schwierigkeiten des interlingualen Wissensaustauschs zwischen den Sprachversionen. Der letzte Teil entwirft schließlich ein detailliertes Konzept für einen neuartigen Wissensaustausch, das aus mehreren ineinandergreifenden Komponenten rund um den Kern einer speziellen Übersetzungsoberfläche besteht. Das Konzept lässt sich auch als Blaupause für Lokalisierungsbemühungen multisprachlicher Wikis nutzen, wie sie international operierende Unternehmungen zunehmend einsetzen. Die Ausarbeitung, auf der dieses Buch basiert, wurde mit dem FHP-Preis 2011 für die beste Abschlussarbeit im Studiengang "Information und Dokumentation" der FH Potsdam ausgezeichnet.
- BK
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
05.20 (Kommunikation und Gesellschaft)
- Classification
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
05.20 (Kommunikation und Gesellschaft)
-
Schaffner, V.: FRBR in MAB2 und Primo - ein kafkaesker Prozess? : Möglichkeiten der FRBRisierung von MAB2-Datensätzen in Primo exemplarisch dargestellt an Datensätzen zu Franz Kafkas "Der Process" (2011)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 1907) [ClassicSimilarity], result of:
0.039407786 = score(doc=1907,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 1907, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1907)
0.25 = coord(1/4)
- Abstract
- FRBR (Functional Requirements for Bibliographic Records) ist ein logisches Denkmodell für bibliographische Datensätze, welches zur benutzerfreundlicheren Gestaltung von Browsing in Online-Bibliothekskatalogen herangezogen werden kann. Im Österreichischen Bibliothekenverbund (OBV) werden bibliographische Datensätze nach den Regeln für die alphabetische Katalogisierung in wissenschaftlichen Bibliotheken (RAK-WB) erstellt und liegen im Datenformat MAB2 (Maschinelles Austauschformat für Bibliotheken) vor. Mit der Software Primo von Ex Libris, die 2009 implementiert wurde, besteht die Möglichkeit bibliographische Datensätze für die Anzeige neu aufzubereiten. Wie ausgehend von MAB2-Daten eine möglichst FRBR-konforme Datenpräsentation in Primo geleistet werden kann und welche Probleme sich dabei ergeben, ist die zentrale Fragestellung dieser Master Thesis. Exemplarisch dargestellt wird dies anhand von Datensätzen des Österreichischen Bibliothekenverbundes zu Franz Kafkas "Der Process". Im Fokus stehen drei Aspekte, welche im Zusammenhang mit FRBR, MAB2 und Primo als besonders problematisch und diskussionswürdig erscheinen: das Konzept des "Werkes", Expressionen als praxistaugliche Entitäten und Aggregate bzw. mehrbändig begrenzte Werke. Nach einer Einführung in das FRBR-Modell wird versucht einen idealen FRBRBaum zu Kafkas "Der Process" in seinen unterschiedlichen Ausprägungen (Übersetzungen, Verfilmungen, Textvarianten, Aggregate etc.) darzustellen: Schon hier werden erste Grenzen des Modells sichtbar. Daran anschließend werden Datensätze des OBV einer Analyse unterzogen, um die FRBRTauglichkeit von MAB2 und die Möglichkeit der FRBR keys in Primo zu beleuchten. Folgende Einschränkungen wurden deutlich: Die derzeitige Herangehensweise und Praxis der Formalerschließung ist nicht auf FRBR vorbereitet. Die vorliegenden Metadaten sind zu inkonsistent, um ein maschinelles Extrahieren für eine FRBR-konforme Datenpräsentation zu ermöglichen. Die Möglichkeiten des Werkclusterings und der Facettierung in Primo bieten darüber hinaus zwar einen Mehrwert für das Browsing in Trefferlisten, jedoch nur bedingt im FRBR-Sinne.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare ; 9
-
Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 3941) [ClassicSimilarity], result of:
0.039407786 = score(doc=3941,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 3941, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3941)
0.25 = coord(1/4)
- Abstract
- SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
- Content
- "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
-
Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
0.039407786 = score(doc=4081,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 4081, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4081)
0.25 = coord(1/4)
- Abstract
- Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
- Footnote
- Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
- Imprint
- Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Jäger, L.: Von Big Data zu Big Brother (2018)
0.01
0.0098519465 = product of:
0.039407786 = sum of:
0.039407786 = weight(_text_:und in 234) [ClassicSimilarity], result of:
0.039407786 = score(doc=234,freq=20.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3099608 = fieldWeight in 234, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=234)
0.25 = coord(1/4)
- Abstract
- 1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.