-
Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009)
0.01
0.014424777 = product of:
0.057699107 = sum of:
0.057699107 = weight(_text_:und in 559) [ClassicSimilarity], result of:
0.057699107 = score(doc=559,freq=14.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4538307 = fieldWeight in 559, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=559)
0.25 = coord(1/4)
- Abstract
- Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
- Source
- Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
-
Krötzsch, M.; Vrandecic, D.: Semantic Wikipedia (2009)
0.01
0.014424777 = product of:
0.057699107 = sum of:
0.057699107 = weight(_text_:und in 874) [ClassicSimilarity], result of:
0.057699107 = score(doc=874,freq=14.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4538307 = fieldWeight in 874, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=874)
0.25 = coord(1/4)
- Abstract
- Wir stellen eine Erweiterung der klassischen Wiki-Software MediaWiki vor, mit der man Inhalte auf einfache Art und Weise mit semantischen Attributen und Beziehungen anreichern kann. Dies ermöglicht es einem weiten Kreis von Wikipedia-Nutzern, gemeinschaftlich eine semantische Wissensbasis aufzubauen, die im Hinblick auf Größe, Umfang, Dynamik, Offenheit und Reichweite einzigartig wäre. Die semantischen Erweiterungen bergen zahlreiche Vorteile für Wikipedia und andere große Wikis: Sie erlauben die automatische Kontrolle der Konsistenz und Vollständigkeit des Wikis, und sie eröffnen neuartige Möglichkeiten zur Suche nach Informationen und zum Browsen von Inhalten. Ein standardkonformer RDF-Export ermöglicht es darüberhinaus, Wissen aus Wikipedia auch in externen Anwendungen mit geringem Aufwand wiederzuverwenden.
-
Lenzen, M: Natürliche und künstliche Intelligenz : Einführung in die Kognitionswissenschaft (2002)
0.01
0.014424777 = product of:
0.057699107 = sum of:
0.057699107 = weight(_text_:und in 296) [ClassicSimilarity], result of:
0.057699107 = score(doc=296,freq=14.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4538307 = fieldWeight in 296, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=296)
0.25 = coord(1/4)
- Abstract
- Die Erforschung des menschlichen Geistes ist eines der spannendsten Unternehmen der Wissenschaft. Die Kognitionswissenschaft erforscht nicht nur abstrakte intellektuelle Leistungen wie etwa das Schachspiel, sondern die ganze Palette der Intelligenz: Sprache, Gedächtnis, Lernen, Wahrnehmung und Bewegung, neuerdings auch Emotionen und Bewusstsein. Diese Einführung bietet eine übersichtliche Darstellung der Entwicklung sowie der zentralen Probleme und Lösungsstrategien dieser neuen Disziplin. Manuela Lenzen studierte Philosophie in Bochum und Bielefeld. Als freie Wissenschaftsjournalistin schreibt sie u. a. für die Frankfurter Allgemeine und die Süddeutsche Zeitung, für die Frankfurter Rundschau und die Zeit.
-
Frerichs, S.: Bausteine einer systemischen Nachrichtentheorie : konstruktives Chaos und chaotische Konstruktionen (2000)
0.01
0.014424777 = product of:
0.057699107 = sum of:
0.057699107 = weight(_text_:und in 396) [ClassicSimilarity], result of:
0.057699107 = score(doc=396,freq=14.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4538307 = fieldWeight in 396, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=396)
0.25 = coord(1/4)
- Abstract
- In dieser Arbeit werden die gängigen, aber unzulänglichen Modelle zur Auswahl und Gestaltung von Nachrichten mit Hilfe der Chaostheorie und des erkenntnistheoretischen Konstruktivismus in einen neuen Systemzusammenhang eingebunden und weiterentwickelt. Die Chaostheorie zeigt, wie bei der Nachrichtenauswahl und -gestaltung zum Beispiel dynamische Ordnungsbildung, Unschärfe und iterative Eigendynamik wirksam werden. Der Konstruktivismus verdeutlicht, welchen Einfluß beispielsweise soziale Kopplung, informale Rollen und erforderliche Vielfalt haben.
-
Weltwissen - Wissenswelt : Das globale Netz von Text und Bild (2000)
0.01
0.014403735 = product of:
0.05761494 = sum of:
0.05761494 = weight(_text_:und in 1740) [ClassicSimilarity], result of:
0.05761494 = score(doc=1740,freq=76.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4531687 = fieldWeight in 1740, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1740)
0.25 = coord(1/4)
- Abstract
- WISSEN IST DIE RESSOURCE und der Produktionsfaktor des neuen Jahrtausends und längst schon Brennstoff der sich beschleunigenden Globalisierung. Wie erwerben und sortieren, vermitteln und nutzen wir Wissen, und wie hat die digitale Revolution den traditionellen Wissenserwerb verändert? Wie hat diese Visualisierung des Wissens unsere Gesellschaft umgestaltet, und wie sehen die neuen Schnittstellen zwischen Wissen und Handeln, zwischen Mensch und Computer aus? Zu diesen Fragen hat die »Akademie zum Dritten Jahrtausend«, Think Tank des Burda Verlags, am 3.-4.2.1999 in München einen internationalen Kongress veranstaltet und Fachleute und Vordenker aus alter Weit eingeladen, um die Konturen der heraufziehenden Zeit zu beleuchten. Vertreter aus Hirnforschung, Neurobiologie, Künstlicher Intelligenz-Forschung, Sozial-, Sprach- und Computerwissenschaft, Informationsdesign, Medientechnologie und Wirtschaftsmanagement diskutierten während eines Symposiums und in anwenderorientierten Workshops, die begleitet waren von einer Software- und DesignAusstellung. WELTWISSEN - WISSENSWELT. DAS GLOBALE NETZ VON TEXT UND BILD ist die um Originatbeiträge ergänzte und erweiterte Dokumentation dieser Bestandsaufnahme am Beginn des neuen Jahrtausends
- Content
- EINFÜHRUNG - Christa Maar: Envisioning Knowledge - Die Wissensgesellschaft von morgen. - KAPITEL 1 DIE NEUE KULTUR DER VISUELLEN KOMMUNIKATION: Ernst Pöppel: Drei Weiten des Wissens - Koordinaten einer Wissenswelt - Joseph Grigely im Gespräch mit Hans Ulrich Obrist: Dazwischen entsteht das Wissen - Derrick de Kerckhove: Medien des Wissens - Wissensherstellung auf Papier, auf dem Bildschirm und online - Peter Weibel: Wissen und Vision - Neue Schnittstellentechnologien der Wahrnehmung - Elisabeth Schweeger: Wissensgesellschaft und Kunst - Das Netz als Chance für kulturelle Vielfalt und Toleranz - Helga Nowotny im Gespräch mit Hans Ulrich Obrist: Inter- und Transdisziplinarität als Eckpfeiler der Wissensgesellschaft - Armin Nassehi Von der Wissensarbeit zum Wissensmanagement - Die Geschichte des Wissens ist die Erfolgsgeschichte der Moderne - Mihai Nadin: Wissen, Entertainment, Visualität und die Medien Anmerkungen zur Zukunft der Bildung - Luyen Chou: Informativ, interaktiv, kollaborativ und selbstbestimmt Mit digitalen Lernumgebungen verändern sich die Lernprozesse - Anthony W. Bates: Virtuell global, zietgruppenorientiert - Der Einfluss der neuen Medien auf die Universität - KAPITEL 2: Wissen in Gehirnen und Artefakten: Wolf Singer: Wissensquellen - Wie kommt das Wissen in den Kopf? - Francisco J. Varela: Die biologischen Wurzeln des Wissens - Vier Leitprinzipien für die Zukunft der Kognitionswissenschaft - Israel Rosenfield: Wissen als Interaktion - Beiträge aus der Hirnforschung und Computerwissenschaft - Semir Zeki: Farbe, Form, Bewegung - Zur Verarbeitung des visuellen Wissens im menschlichen Gehirn - Luc Steels: Kognitive Roboter und Teleportation - Artefakte reagieren auf ihre Umwelt und erfinden sich eine Sprache - Karl-Hans Englmeier: Virtual Reality in der Medizin - 3D-Techniken revolutionieren die Mensch/Maschine-Interaktion - KAPITEL 3: Das Wissen von morgen und sein Design: Bob Greenberg im Gespräch mit Annette Schipprack: Blick zurück & nach vorn - Von der Film- und Video-Produktion zum Web-Design - Hubert Burda: Info-Grafik - Wie die Focus-lkonologie entstand - William J. T. Michell: Das Kunstwerk im Zeitalter seiner biokybernetischen Reproduzierbarkeit - Thomas Hettche: Schreibzeug und andere Erinnerungen - Bruce Mau: Wachstumsvorgänge - Ein unvollständiges Manifest zu den verschiedenen Weisen der Wissenserzeugung - Cornel Windlin/MM: Kunstprojekt »Envisioning Knowledge« - Das Wissensmuseum im Westentaschenformat - John Bock: Paramoderne - Josh Kimberg im Gespräch mit Annette Schipprack: Interaktive Web-Designer sind die Aichimisten von heute - Michael Conrad im Gespräch mit Stefan Ruzas: Werbung und Poesie - Die Bedeutung von Wissen für die Markenführung - Marney Morris im Gespräch mit Uli Pecher: Verliebt ins Lernen - Grundprinzipien des Muttimedia-Designs - Ramana Rao: Der >Hyperbolic Tree< und seine Verwandten - 3D-Interfaces erleichtern den Umgang mit großen Datenmengen - Albrecht A. C. von Mütter Das Erzeugen, Speichern und Nutzen von Wissen als Schlüsselkompetenz der Zukunft - KAPITEL 4: Neue Medien und Wirtschaft: Gabi Reinmann-Rothmeier/Heinz Mandt: Wissensmanagement im Unternehmen - Eine Herausforderung für die Repräsentation, Kommunikation, Schöpfung und Nutzung von Wissen - Hubert Österle: Geschäftsmodell des Informationszeitalters - Die digitalen Medien ermöglichen eine radikale Kundenzentrierung - Volker Jung: Wissen, das produktiv wird - Mit Wissensmanagement zum lernenden Unternehmen - Burkhardt Pautuhn Finanzdienstplatz Internet - Die Marke kommuniziert die Vertrauenswürdigkeit - Martin Raab: Vernetzte Logistik - Die Deutsche Post auf dem Weg zum intelligenten Kommunikations- und Dienstleistungsunternehmen - Michael Krämer: Vision Telematik - Das Auto als begehrenswertes Stück Lebensraum - EPILOG: William J. Clancey: Das Haughton-Mars-Projekt der NASA - Ein Beispiel für die Visualisierung praktischen Wissens - Tom Sperlich: Die Zukunft hat schon begonnen - Visualisierungssoftware in der praktischen Anwendung - 1. Unsichtbares sichtbar machen - 2. Mit 3D-Darsteltungen besser verkaufen - 3. Mixed Realities - 4. Informationstechnik hilft heilen - 5. Informationen finden - Komplexes verstehen - 6. Informationslandschaften - Karten - 7. Arbeiten und Wohnen in der Info-Zukunft - 8. Neues Lernen in der Info-Welt - 9. Computerspiele als Technologie-Avantgarde - 10. Multimediale Kunst
-
CSCL-Kompendium : Lehr und Handbuch zum computerunterstützten kooperativen Lernen (2004)
0.01
0.014403735 = product of:
0.05761494 = sum of:
0.05761494 = weight(_text_:und in 959) [ClassicSimilarity], result of:
0.05761494 = score(doc=959,freq=76.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4531687 = fieldWeight in 959, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=959)
0.25 = coord(1/4)
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 56(2005) H.2, S.122-123 (R. Gunzenhäuser): " CSCL ist die seit 1989 übliche Abkürzung für "Computer Supported Cooperative Learning", wobei das zweite "C" auch für "Collaborative", manchmal sogar für "Collective", "Competitive° oder "Conversational" stehen kann. Anders als der Computerunterstützte Unterricht des vergangenen Jahrhunderts und anders als das derzeitige netzbasierte E-Learning ist CSCL nicht auf Lernen als individuellen Wissenserwerb ausgerichtet, sondern auf neue Wege, wo Lernende miteinander neues Wissen erarbeiten und dieses - in Diskussionen, Projektarbeiten oder auch Rollenspielen - vertiefen. Schon seit 1995 gibt es internationale Tagungen über CSCL, seit 2001 auch eine europäische. In Deutschland spielt CSCL eine Rolle in den Tagungsreihen "Mensch & Computer", der Wirtschaftsinformatik sowie bei den GMW-Jahrestagungen. Zahlreiche CSCL-Forscher haben sich in der "CSCL-Community" im Rahmen der 2002 gegründeten International Society of the Learning Sciences organisiert. Es ist schon heute schwierig, sich in der Flut von Fachpublikationen, Tagungsberichten und Internet-Beiträgen über CSCL zurecht zu finden. Auch das vorliegende Werk nennt als Literatur auf über 6o Seiten mehr als 1.00o solcher Beiträge. Wie kann man hier den Überblick behalten? Auf diese Frage versuchen die Herausgebern Jörg M. Haake (FernUniversität in Hagen), Gerhard Schwabe (Universität Zürich) und Martin Wessner (Fraunhofer IPSI in Darmstadt) mit dem von ihnen herausgegebenen CSCL-Kompendium eine Antwort. Um es vorweg zu nehmen: Die fachliche Breite des Werks, seine klare Strukturierung und die dabei zu Tage tretende Fachkompetenz der insgesamt 54 Autorinnen und Autoren überzeugen. Das Werk liest sich überwiegend flüssiger als manches einschlägige Lehrbuch und ist doch gleichzeitig als CSCL-Handbuch geeignet. Obwohl es kein Sachwortverzeichnis gibt, findet man sich in den mehr als 45o Textseiten durch den klaren Aufbau des Werks, durch die Verkettung der Fachbegriffe und durch die durchweg klare Sprache gut zurecht. Das erste Kapitel des Werks befasst sich mit wichtigen Grundlagen und Forschungsmethoden des CSCL - unter Einschluss der pädagogischen und didaktischen Grundlagen. Besonders interessant ist der Beitrag von R. Hartwig und M. Herczeg über Informatikgrundlagen und Mensch-Computer-Kommunikation.
Das zweite Kapitel beschreibt CSCL-Umgebungen wie z. B. Koordinationswerkzeuge zur Bildung von Lerngruppen (T. Reichling, A. Becks, O. Bresser und V Wulf ) oder die Kooperation in kleineren und in größeren Lerngruppen. Konzeptionell wertvoll sind insbesondere Beiträge von J. Haake, M. Wessner und P Dawabi über kooperative Lernräume sowie über neue Konzepte für die Lerngruppe (A.Kienle, T.Hermann u. a.) bzw. für den Lehrenden (M. Wessner, G. Schwab, J. Haake). Das dritte Kapitel ist der Didaktik gewidmet und enthält u. a. Beiträge über Lerngruppen, Moderation, Coaching und Medienwahl. Es endet mit einer originellen mediendidaktischen Konzeption (von M. Kerres, A. Nattland, I. Nübel) und mit interessanten "selbstorganisierenden Szenarien" (von P Arnold, E. Hornecker). Das vierte Kapitel spricht mit seinen Beiträgen über den CSCL-Entwicklungsprozess, Bedarfsanalysen, Software- und Systementwicklung sowie über Qualitätssicherung und "Normen und Standards für Lernmaterialien" nicht nur Informatiker an. Im fünften Kapitel wird über Anwendungen, Wirkungen und Potentiale von CSCL berichtet: CSCL in der Schule (J. Magenheim), als Herausforderung an die Lehrerbildung (C. Görlich, L. Humbert) sowie in Hochschulseminaren - mit zwei Beispielszenarien von A. Carell, A. Kienle und T. Hermann. Das Kapitel berichtet auch über CSCL im Fernstudium (P Arnold), in der Berufsausbildung (C. Lohr und R. Meyer), in der betrieblichen Weiterbildung (S. Lindstaedt et al.) sowie über CSCL für Lernbehinderte und Hochbegabte (H. Weber).
Das Kompendium schließt mit recht mutig formulierten - erfolgversprechenden - Perspektiven der Herausgeber. Es fehlt jedoch keinesfalls an der kritischen Sicht auf Defizite und-noch vorhandene -kulturelle, methodische, organisatorische und technische Barrieren. Es wird auf die Interdisziplinarität von CSCL ebenso verwiesen wie auf die nicht zuletzt daraus resultierende Heterogenität der verwendeten Konzepte und Methoden. Unter der Hauptthese "CSCL wird erwachsen!" formulieren die Herausgeber u. a. folgende Thesen für die Zukunft von CSCL: 1. Lernräume werden CSCL-fähig. 2. "CSCL-Systeme integrieren individuelle und kooperative Lernphasen. 3. Lernplattformen werden CSCL-fähig. 4. CSCL wird ins Standard-Repertoire (?) aufgenommen. 5. CSCL wird Lernprozesse flexibel unterstützen. 6. Kooperatives Lernen wird ein wichtiger Baustein für lebenslanges Lernen. 7. Lernen, Arbeiten und Spielen werden verschmelzen. 8. Es werden neuartige Nutzungsszenarien für CSCL entstehen. Bei mehr als 50 beteiligten Autoren und Autorinnen bleibt es unvermeidlich, dass man beim kritischen Lesen auch auf einzelne widersprüchliche Formulierungen und unterschiedliche Begriffsauslegungen stößt. Diese im einzelnen aufzuspüren, kann eine lohnende Aufgabe für Hochschullehrer und ihre Studierenden in Seminaren sein. Für viele CSCL-Anwender, Wissenschaftler und Studierende sowie Praktiker aus sehr unterschiedlichen Disziplinen wird das CSCL-Kompendium als Nachschlagewerk, als Lehrbuch und als Medium für das lebenslange Lernen mit und über CSCL bald unverzichtbar sein."
-
Teubener, K.; Zurawski, N.: Wissenschaftsvernetzung, Internet und Interface-Design für die Massenmedien (2000)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 639) [ClassicSimilarity], result of:
0.057107307 = score(doc=639,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 639, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=639)
0.25 = coord(1/4)
- Abstract
- Mit fortschreitender Entwicklung des Internet wächst auch die Unübersichtlichkeit der dort vorhandenen Wissensbestände. Der Zugang zu ihnen wird allein durch mangelnde Organisation und Vernetzung verhindert. Hinzukommt, dass vor allem die Forschungsergebnisse vieler wissenschaftlicher Einrichtungen zwar in Form von Homepages und Web-Seiten auf dem Internet präsent sind, aber kaum kontextualisiert werden, von disziplinübergreifenden Vernetzungen ganz zu schweigen. Auch wenn Wissenschaftler untereinander bereits mit den Mitteln des Internet agieren, schaffen sie nur selten eine Transferleistung, die ihre Arbeit über einen kleinen Kreis von Eingeweihten hinaus bekannt macht. Die Zunahme von Wissenschaftssendungen im Fernsehen deutet jedoch darauf hin, dass ein großes Interesse an der Popularisierung wissenschaftlicher Inhalte besteht. Diese Inhalte werden jedoch auch in TV-Sendungen nur selten in einen gesellschaftlichen Kontext gestellt. Nur allzu häufig werden auch dort alte Schemata des Filterns und Zensierens beibehalten. Eine Verbindung zum Internet mit seinem 'frei verfügbaren Wissen und seiner offenen Struktur wird dabei nur selten gesucht. So gibt es zu allen Sendungen Internetseiten, die meist nicht mehr sind als die bloße Wiedergabe der bereits im Fernsehen gezeigten Inhalte. Erzählweisen, wie sie durch das Internet möglich werden, z. B. Hypertextstrukturen, neue Kontexte, demokratische Zugänge zu Wissen und Informationen, werden nicht genutzt bzw. nicht umgesetzt. Das Fernsehen bleibt dem broadcasting-Paradigma (one-to-many, ohne Rückkopplungseffekte, außer der Quote) treu. Mit zunehmender Verschmelzung von TV und Internet ist es an der Zeit, sich über neue Formen der Präsentation und Kommunikation wissenschaftlicher Inhalte Gedanken zu machen. Im Klartext: Die Strukturen des Internet und das darin gesammelte Wissen müssen massenmedial aufbereitet werden, um einerseits neue, d.h. den vorherrschenden Ideologien und Paradigmen entgegenstehende 'Erzählweisen' von Wissenschaft zu erproben, und um andererseits Wissenschaft und Forschung zu demokratisieren. Das von der EU geförderte European Popular Science Information Project (EPS Projekt, siehe URL am Ende) widmete sich in seiner Arbeit und Zielsetzung diesem Problem und entwickelte in einem Zeitraum von drei Jahren eine Reihe von Werkzeugen und Strategien, die der Kontextualisierung und Vernetzung der auf dem Internet vorhandenen Informationen dienen und z. B. von Journalisten genutzt werden können. Diese als scientific storyboarding (siehe Kap. 5a) bezeichnete Technik ermöglicht es, bestimmte Themen im Internet zu recherchieren, zu strukturieren und in Form von Geschichten zu visualisieren. Im Rahmen des Projektes dienten die Storyboards auch als interaktive Arbeitsplattformen, über die sich die einzelnen Projektpartner in Bezug auf Themen und Themenschwerpunkte verständigen konnten
- Source
- Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
-
Mainberger, C.: Aktuelles aus der Digital Library (2003)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2547) [ClassicSimilarity], result of:
0.057107307 = score(doc=2547,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2547, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2547)
0.25 = coord(1/4)
- Abstract
- Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
-
Fürnhammer, H.: Bibliothek - Informationskompetenz - Informationelle Autonomie : Aspekte der Positionierung einer wissenschaftlichen Fachbibliothek (2003)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
0.057107307 = score(doc=2784,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2784, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2784)
0.25 = coord(1/4)
- Abstract
- Information ist - so unser Ausgangspunkt - zweckorientiertes, handlungsrelevantes Wissen. Im Sinne eines pragmatischen Grundverständnisses von Information sind Informationen prinzipiell immer auf die Nutzung in konkreten Wirklichkeitsausschnitten angelegt. "Information ist Wissen in Aktion" (Kuhlen 1996, S. 34). Informationsarbeit, "der Prozeß der Erarbeitungvon Information beläßt Wissen nicht in seinem Rohzustand, vielmehr ist er als Transformations[ [...] prozeß anzusehen." (Kuhlen 1996, S. 34) Informationswirtschaftlich gesprochen wird dabei der Rohstoff Wissen zu einem Informationsprodukt verarbeitet, das durch seinen höheren Gebrauchswert und damit Tauschwert Mehrwert schafft. "Die Umwandlungvon Wissen in Information nennen wir die Erzeugung informationeller Mehrwerte." (Kuhlen 1996, S. 34) Bibliothekarische Informationsarbeit besteht im wesentlichen aus a) Informationserschließung, b) Informationsstrukturierung und -Präsentation sowie c) Informationsvermittlung im klassischen Sinn physischer eigener und ständig zunehmend auch virtueller und fremder Informationsbestände. Der Produktionsprozeß bibliothekarischer Informationsgüter umfaßt demnach die Erstellung von Sekundärdokumenten (Metadaten), die darstellende Aufbereitung und Präsentation von physischen und virtuellen Beständen und die Erbringung spezifischer Informationsberatungsleistungen zu eben diesen Beständen. Das ist das Kerngeschäft. Die Situation, in der sich Bibliotheken als ein - wenn auch in gewissen Hinsichten nach wie vor prominenter- Anbieter neben einer Fülle anderer am Informationsmarkt der Informationsgesellschaft wiederlinden, ist die schärferer interner und vor allem externer Konkurrenz. Steigende Kommerzialisierung (Verwertungs- und Ressourcenzwänge) geht einher mit zunehmenden Positionierungs- und Profilierungsanforderungen auf Anbieterseite. Was sind nun die Betriebsvorteile von Bibliotheken im Zeitalter von Cyberspace, knapper Mittel und Informationsflut. Traditionell das Hauptkapital in materieller Hinsicht sind sicher die gewachsenen Bestände, d.h. das Bereithalten von "Contents" in physischer Form; und werden sie angesichts der aktuellen Buchproduktionszahlen auch noch einige Zeit sein. Allerdings ist das Feld der digitalen und virtuellen Informationsbestände hinzugekommen, aufdem gerade Bibliotheken aufgrund ihrer Erfahrung im Umgang mit Informationsquantitäten bei permanenter Adaptierung ihrer Kenntnisse und Handlungsstrategien prädestiniert sind, auch in diesem Bereich einen hohen Anteil am Informationsnachfragemarkt zu besetzen. Neben Sachkapital (Informationsträger) und Humankapital (Expertenwissen) verfügen Bibliotheken immer schon über eine Qualität, die gerade in einer virtuellen Zukunft mit einer Überfülle kontingenter Informationen (Stichwort Pluralität, Variabilität, Multioptionalität) von zentraler Bedeutung sein wird: Bibliotheken sind reale Orte, an denen von realen Personen notwendige Komplexitätsreduktion durch Selektion und Strukturierung geleistet wird. Je mehr (die) globalisierte Virtualität Platz greift desto notwendiger ist die komplementäre Rückbindung an reale lokale Strukturen. Das Verfügen über bzw. die Zugriffsmöglichkeit auf Information in unterschiedlichen Aggregatszuständen, fachliches und methodisches Know How zur Produktion und Vermittlung von Information und eine definierte bzw. definierbare Örtlich- und Körperlichkeit befähigen Bibliotheken zum Reüssieren in der Informationsgesellschaft.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.2, S.19-26
-
Partl, H.; Müller-Prothmann, T.: Typo 3 - Das Einsteigerseminar (2005)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 4664) [ClassicSimilarity], result of:
0.057107307 = score(doc=4664,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 4664, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4664)
0.25 = coord(1/4)
- Abstract
- Das Buch richtet sich an Anwender, die das CMS für die eigene Website nutzen möchten. Vorkenntnisse sind nicht erforderlich. Schritt für Schritt leitet das Autorenteam den Leser an, so dass dieser in der Lage ist, Typo 3 optimal einzusetzen, auch wenn er noch nie ein Content-Management-System benutzt hat. Die Zielgruppe sind dabei die Anwender, die Texte editieren und veröffentlichen und eine Website damit mit stets aktuellen Inhalten aufbauen sollen. Die enorme Funktionsfülle von Typo rechtfertigt diesen Ansatz. Die Bedienoberfläche, die ersten Schritte beim Anlegen neuer Artikel und Editieren bestehender Seiten mit dem integrierten Rich-Text-Editor und das Einfügen von Bildern gehören ebenso zum Inhalt wie Tipps und Tricks aus der Praxis und praktische Übungen. Wer allerdings erwartet, dass das Buch auch die Administration und Einrichtung des kostenlosen CMS abdeckt, wird enttäuscht. Vorausgesetzt wird eine bestehende Installation von Typo 3. Das ist schade, denn die erste Hürde tut sich für viele Interessenten schon bei der Installation auf. Eine Erweiterung des Buches in der nächsten Auflage könnte nicht schaden.
TYPO3 ist ein Content-Management-System, mit dem Web-Autoren ohne spezielle Vorkenntnisse sehr einfach, rasch, bequem und leicht verständlich Web-Pages erstellen können, die schön und übersichtlich und gut zu gebrauchen sind. Seit einigen Jahren erfreut sich TYPO3 immer größerer Beliebtheit. Wir haben uns bemüht, unser Einsteigerseminar nach denselben Grundsätzen zu schreiben: Es richtet sich an Leser ohne spezielle Vorkenntnisse, soll einfach, bequem und rasch zu lesen, leicht verständlich, schön, übersichtlich und gut zu gebrauchen sein, und wir hoffen, dass es sich auch großer Beliebtheit erfreuen wird. Im Gegensatz zu anderen, dicken, möglichst vollständigen Handbüchern und Referenzen haben wir uns bemüht, dieses Einsteigerseminar kurz und kompakt zu gestalten, und wir wenden uns darin auch nur an die Web-Autoren, die TYPO3 für die Veröffentlichung ihrer Texte und Bilder einsetzen wollen, nicht an die Administratoren, die das TYP03System am Web-Server installieren und konfigurieren sowie die so genannten Templates für das Layout der Web-Pages einrichten. Wir verwenden TYPO3 für unsere eigenen Web-Pages, und wir halten regelmäßig Schulungen für Web-Autoren, Sachbearbeiter und Redakteure, die ihre Web-Pages mit TYPO3 erstellen wollen: Tobias MüllerProthmann an der Freien Universität in Berlin, Hubert Partl an der Universität für Bodenkultur in Wien. Das Einsteigerseminar baut auf unseren praktischen Erfahrungen und auf unseren Schulungsunterlagen auf.
-
Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
0.057107307 = score(doc=5881,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 5881, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5881)
0.25 = coord(1/4)
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
-
Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 218) [ClassicSimilarity], result of:
0.057107307 = score(doc=218,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 218, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=218)
0.25 = coord(1/4)
- Abstract
- Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
-
DNB: Neues zu Sammelwerken und Personennamen : Splitregeln für fortlaufende Sammelwerke - Individualisierung von Personennamen (2006)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 993) [ClassicSimilarity], result of:
0.057107307 = score(doc=993,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 993, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=993)
0.25 = coord(1/4)
- Abstract
- Splitregeln für fortlaufende Sammelwerke Der Standardisierungsausschuss hat die Einführung der ISBD(CR)-Splitregeln für fortlaufende Sammelwerke beschlossen und in einem Umlaufverfahren im Frühjahr 2006 der Veröffentlichung und baldigen Anwendung der dafür notwendigen Änderungen in den »Regeln für die alphabetische Katalogisierung - RAK« und den »Format und Konventionen für die Zeitschriften-Titelaufnahme in der Zeitschriftendatenbank ZETA« zugestimmt. Die ZDB hat angekündigt, die Splitregeln ab Januar 2007 anzuwenden. Dieser Termin wurde gewählt, um ausreichend Zeit für die Vorbereitung und Durchführung verbundinterner Schulungen einzuräumen und Regelungen für den Umgang mit Altdaten vorzubereiten.
Individualisierung von Personennamen Die Praxisregeln zu RAK-WB § 311 und RSWK § 106: Individualisierung von Personennamen beim Katalogisieren mit der Personennamendatei (PND), sind mit dem 1. Juli 2006 in Kraft getreten. Die Praxisregeln folgen den im Jahr 2004 im »perso-Projekt« getroffenen Beschlüssen. Im »perso-Projekt« waren in einem gemeinsamen Projekt der Expertengruppen PND, Formalerschließung und RSWK/SWD die Personenansetzungsregeln der Kegelwerke RAK-WB und RSWK einander angeglichen worden. Die miteinander abgestimmten Regeltexte hatten ein Stellungnahmeverfahren durchlaufen, und der Standardisierungsausschuss hatte die Veröffentlichung und Anwendung beschlossen. Mit den Praxisregel n zur Individualisierung wird eine wichtige Grundlage für die Arbeit in der Normdatei PND manifestiert. Die nun in Kraft getretenen Praxisregeln können nur einen Teil der im »perso-Projekt« vereinbarten Entwicklungen realisieren, da sie sich noch an den im bestehenden Austauschformat gegebenen Möglichkeiten orientieren. Weitergehende Formatveränderungen sind darin wegen des beschlossenen Umstiegs nach MARC21 zum jetzigen Zeitpunkt nicht möglich. Aus diesem Grund werden auch noch unterschiedliche Textfassungen für die Praxisregel zu den RAK-WB § 311 und RSWK § 106 vorgelegt. Ein gemeinsamer Regelwerkstext für Formal- und Sacherschließung wird nach Abschluss der internationalen Regelwerksentwicklung formuliert. Die im »perso-Projekt« getroffenen Festlegungen werden in die Diskussion und Kommentierung des RDA-Entwurfs für Personenansetzungsregeln einfließen und den deutschen Standpunkt bestimmen. Individualisierte Datensätze in der PND stellen wertvolle Sucheinstiege für die Benutzer unterschiedlichster Kataloge und Bestände dar. Sie ermöglichen die Verlinkung von Veröffentlichungen von und über die Person, von Archivalien, Museumsbeständen und Lexikoneinträgen, wie zum Beispiel in der deutschen Ausgabe der freien Internetenzyklopädie Wikipedia. Die PND umfasst zur Zeit rund 2,7 Millionen Datensätze, von denen etwa 1,1 Millionen individualisiert sind, das heißt genau eine Person beschreiben. Die kooperativ geführte Normdatei wird von allen deutschsprachigen Bibliotheksverbünden, dem Kalliope-Verbund und in Projekten angewendet. Mit vereinten Kräften und den nun geltenden Praxisregeln soll die Anzahl der individualisierten Datensätzen in den nächsten Jahren kontinuierlich steigen.
-
Wissenschaftsportal b2i - das zentrale Fachportal für die Bibliotheks-, Buch- und Informationswissenschaften online! (2007)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 1392) [ClassicSimilarity], result of:
0.057107307 = score(doc=1392,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 1392, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1392)
0.25 = coord(1/4)
- Content
- "Seit dem 8. Mai 2007 ist b2i, das zentrale Wissenschaftsportal für die Bibliotheks-, Buch- und Informationswissenschaften, online (www.b2i.de). Sein Name "b2i" fasst die Anfangsbuchstaben der beteiligten drei Wissenschaftsdisziplinen zusammen. Das Fachportal wird von der Deutschen Forschungsgemeinschaft (DFG) gefördert und kooperativ entwickelt von: - der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) als zuständiger Sondersammelgebietsbibliothek (Projektleitung), - dem Informationszentrum für Informationswissenschaft und -praxis (IZ) der Fachhochschule Potsdam, - dem Fachbereich Informationswissenschaften der Fachhochschule Potsdam, - dem Kompetenznetzwerkfür Bibliotheken (KNB) beim Deutschen Bibliotheksverband Berlin - und der Buchwissenschaft der Friedrich-Alexander-Universität Erlangen-Nürnberg. Nach dem Vorbild der virtuellen Fachbibliotheken bündelt b2i Fachinformation, Datenbanken und Bibliothekskataloge der Bibliotheks-, Buch- und Informationswissenschaften und macht sie über eine gemeinsame Oberfläche bequem und komfortabel zugänglich. Eine integrierte Metasuchfunktion ermöglicht die gleichzeitige Recherche in einer Vielzahl von Nachweisinstrumenten für gedruckte und elektronische Materialien, qualitätskontrollierten Internetressourcen und Fakteninformationen. Zum Service gehören außerdem Bestellmöglichkeiten für Monographien-, Zeitschriften- und Aufsatzliteratur sowie für elektronische Materialien, die als Datei oder Druckausgabe angefordert werden können. Damit wird b2i für Interessierte aus Wissenschaft, Studium und Praxis zu einem interdisziplinären "One-stop-shop" der Fachinformation. Auch Volltexte gehören zum Angebot von b2i. Eingebunden sind bereits jetzt der Potsdamer Volltextserver INFODATA eDepot und der GOEDOC-Dokumentenserver der SUB Göttingen. Thematisch erschlossene Nachweise auf Artikelebene bieten die informationswissenschaftliche Datenbank INFODATA und der spezifische Fachausschnitt "Informations-, Buch- und Bibliothekswesen" aus der Aufsatzdatenbank Online Contents (OLC-SSG). Für die Buch- und Bibliothekswissenschaft verbessert sich die Nachweissituation erheblich durch die Einbindung der nunmehr erstmals in elektronischer Form verfügbaren "Bibliographie zur Buch- und Bibliotheksgeschichte" (BBB) und des von Bernhard Fabian herausgegebenen "Handbuch der historischen Buchbestände", das in Form eines interaktiven Wikis kostenfrei zugänglich gemacht wird. Der "b2i Guide" enthält eine Sammlung von intellektuell erschlossenen, fachrelevanten Internetquellen, in die auch die Fachausschnitte aus der Elektronischen Zeitschriftenbibliothek (EZB) und des Datenbank-Informationssystems (DBIS) eingebunden sind. Beiträge zu aktuellen Fachthemen aus der Bibliotheksszene ergänzt das Bibliotheksportal des Kompetenznetzwerks für Bibliotheken."
-
Janich, P.: Was ist Information? : Kritik einer Legende (2006)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2639) [ClassicSimilarity], result of:
0.057107307 = score(doc=2639,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2639, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2639)
0.25 = coord(1/4)
- Abstract
- Information ist ein allgegenwärtiger Begriff im Alltag, in den Wissenschaften und in der Philosophie. Heute wird er immer mehr von den Naturwissenschaften als ureigenster Gegenstand reklamiert: Er wird »naturalisiert«. Das Buch zeichnet den Weg nach, wie aus Physik und Mathematik Auffassungen entstehen, die über die Wissenschaftstheorie und die Sprachphilosophie zur Grundlage der Nachrichtentechnik und der Kybernetik werden, um schließlich bei der »Erbinformation« und anderen Naturgegenständen zu landen. So entsteht eine mißverstandene Form des Körper-Geist- Problems: Wie kommen technische Objekte, aber auch Moleküle im menschlichen Genom zu Eigenschaften, die ursprünglich der menschlichen Sprache vorbehalten waren? Dieses Buch korrigiert Mißverständnisse, weist heute übliche Ausdrucksweisen als (teilweise irrtümliche) Metaphern aus und rekonstruiert das menschliche Handeln und Sprechen als Grundlage von technischen und natürlichen Formen der Informationsverarbeitung.
- BK
- 06.00 Information und Dokumentation: Allgemeines
- Classification
- AN 93000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Informationstheorie, Kybernetik
AP 16100 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Aussagefunktion und Aussagegestaltung / Unterrichtung (Information)
06.00 Information und Dokumentation: Allgemeines
- Content
- Inhalt: 1 Information und Legende 2 Erblasten - Wer hat die Naturwissenschaften naturalisiert? - Wer hat die Theorie formalisiert? - Wer hat die Kommunikation mechanisiert? 3 Dogmengeschichten - Semiotik (Zeichentheorie) - Kybernetik (Maschinentheorie) - Politik (Erfolgstheorie) - Die Pfade des Irrtums 4 Informationsbegriffe heute - Der Nachrichtenkomplex - Das Geschwätz der Moleküle und Neuronen - Das Geistlose in der Maschine 5 Methodische Reparaturen - Üblichkeiten und Zwecke als Investition - Für Reden verantwortlich - Kommunizieren und Informieren, terminologisch - Leistungsgleichheit und technische Imitation - Modelle des Natürlichen 6 Konsequenzen
- RVK
- AN 93000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Informationstheorie, Kybernetik
AP 16100 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Aussagefunktion und Aussagegestaltung / Unterrichtung (Information)
-
Favre-Bulle, B.: Information und Zusammenhang : Informationsfluß in Prozessen der Wahrnehmung, des Denkens und der Kommunikation (2001)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2783) [ClassicSimilarity], result of:
0.057107307 = score(doc=2783,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2783, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2783)
0.25 = coord(1/4)
- Abstract
- Im Zeitalter der elektronischen Medien ist "Information" zu einem schillernden Schlagwort geworden. Sie legt die Basis für Entscheidungsprozesse und bestimmt unser Denken und Handeln. Doch was ist Information und wie funktioniert sie? Das Buch stellt das Thema erstmals aus der Sicht der Informationstheorie, der Wahrnehmung, des Denkens und der Sprache dar. Auf interdisziplinärer Ebene wird der Informationsbegriff erarbeitet. Wie erlangen Daten Sinn und Bedeutung? Das Werk behandelt die Natur der Informationsflüsse und diskutiert die Rolle des Kontextes. Zahlreiche Beispiele und Abbildungen unterstützen die Erläuterungen. Anhand des Japanischen wird der dramatische Einfluß des sprachlichen Kontextes auf die inhaltliche Interpretation verdeutlicht. Der Leser erhält Einblicke in die Mechanismen der Informationsflüsse und kann damit rascher die richtigen Entscheidungen treffen. Er vermeidet Mißverständnisse, indem er die Rolle des Zusammenhangs in seinen Denkprozessen beachtet.
- Classification
- AN 92550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
- Content
- Absolute und relative Perspektiven: Die Sterne des Orion; Babylonische Informationsverwirrungen; Eine Navigationshilfe.- Information: Informationsparadigmen; Information in der Nachrichtentechnik; Signale, Daten, Information und Wissen; Information und Bedeutung.- Konnektionistische Modelle: Ein konnektionistisches Informationsmodell; Informationsfluß im Netzmodell.- Wissen: Definition von Wissen; Klassifizierung von Wissen; Wissensrepräsentation.- Wahrnehmung und Denken: Kognition; Paradigmen und Modelle; Wahrnehmung; Kognitive Systeme und Kontext; Denken.- Kontext: Was ist Kontext?; Eine Kontext-Metapher; Die Logik und HOLMES; Das Konzept ist(c, p).- Sprache: Die sprachliche Dimension; Struktur der Sprache; Sprache als Medium der Information; Sprache und Kontext 1: Air Traffic Control; Sprache und Kontext 2: Japanisch. - Enthält Abschnitte zu: Kommunikation; Medien; Medienwissenschaft; Kognitionswissenschaft; Informatik; Wirtschaft
- RVK
- AN 92550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Nachschlagewerke, Allgemeine Darstellungen / Einführungen, Abrisse
-
FIZ Karlsruhe unterstützt gemeinsamen Bibliotheksverbund (VZG) bei der Einführung der ESCIDOC-Infrastruktur (2008)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2810) [ClassicSimilarity], result of:
0.057107307 = score(doc=2810,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2810, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2810)
0.25 = coord(1/4)
- Abstract
- Die VZG hat sich für die eSciDoc-Infrastruktur entschieden, um neue Angebote und Produkte für Wissenschaft, Forschung und Ausbildung schneller und effizienter einzuführen / FIZ Karlsruhe unterstützt und berät die VZG bei der Entwicklung neuer Angebote / Erkenntnisse und Entwicklungsergebnisse aus dem Projekt eSciDoc kommen zum Einsatz
- Content
- "Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) und FIZ Karlsruhe haben beschlossen, zu kooperieren und gemeinsam einen wichtigen Beitrag zum Aufbau der nationalen E-Science-Infrastruktur zu leisten. E-Science steht für "enhanced science" - die neue Form wissenschaftlichen Arbeitens. E-Science folgt der Vision, das Wissen der Wissenschaft global zu vernetzen. Voraussetzung dafür ist eine innovative, nachhaltige Infrastruktur, sowohl technisch als auch organisatorisch. Die VZG verbessert mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG) im Rahmen des Projekts "Nationallizenzen" die Versorgung mit elektronischer Fachinformation an deutschen Hochschulen, Forschungseinrichtungen und wissenschaftlichen Bibliotheken. Jetzt stellt die VZG ihr System für das Hosting von digitalen Inhalten auf eine neue technische Basis: die eSciDoc-Infrastruktur. Deren Kern bildet das international renommierte Repository-System Fedora. Die eSciDoc-Infrastruktur bietet durch zusätzliche Dienste, fertige Datenmodelle und vereinfachte Schnittstellen erhebliche Mehrwerte. Die VZG hat sich nach einer umfänglichen Evaluation der Software und der zugrunde liegenden Konzepte für das System entschieden. FIZ Karlsruhe wird die VZG bei dessen Einführung beraten.
Zum Vertragsabschluss erklärt Sabine Brünger-Weilandt, Geschäftsführerin von FIZ Karlsruhe: "Als wissenschaftlicher Dienstleister und eScidoc-Partner fühlen wir uns der Nachnutzung und Verbreitung des Systems verpflichtet. Die Kooperation mit der VZG bedeutet einen wichtigen Schritt in diesem Prozess. Damit können wir die VZG effektiv und kompetent dabei unterstützen, ihre Leistungen im Bibliotheksverbund noch besser zu erbringen und wertvolle Kulturgüter der Wissenschaft und Forschung digital verfügbar zu machen." Reiner Diedrichs, Direktor der Verbundzentrale, begründet die Entscheidung: "Die durchdachte Architektur, der flexible Umgang mit Metadaten sowie insbesondere die konsequente Verfolgung des Open-Source-Gedankens haben uns überzeugt. Die eSciDoc-Infrastruktur bietet eine solide Grundlage für die weitere Entwicklung unserer Dienstleistungen." FIZ Karlsruhe arbeitet bereits seit mehr als drei Jahren intensiv an E-Science-Lösungen. Im Projekt eSciDoc entwickeln FIZ Karlsruhe und die MaxPlanck-Gesellschaft (MPG) gemeinsam ein System für offene netzbasierte Zusammenarbeit, Kommunikation und Publikation in wissenschaftlichen Forschungsorganisationen. Aufbauend auf seinen längjährigen Erfahrungen im internationalen Informationstransfer und Wissensmanagement hat FIZ Karlsruhe seine Kompetenzen in Richtung zu E-Science erweitert. Über das neue Geschäftsfeld KnowEsis werden in dem komplexen und beratungsintensiven Umfeld von E-Science innovative Dienstleistungen angeboten. Dazu gehören Consulting, Schulung und kundenspezifische Entwicklungen ebenso wie Support sowohl für die eSciDoc-Infrastruktur als auch für das Repository-System Fedora."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.1, S.123-124
-
Pauen, M.; Roth, G.: Freiheit, Schuld und Verantwortung : Grundzüge einer naturalistischen Theorie der Willensfreiheit (2008)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 3539) [ClassicSimilarity], result of:
0.057107307 = score(doc=3539,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 3539, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3539)
0.25 = coord(1/4)
- Abstract
- Keine wissenschaftliche Debatte ist in den letzten Jahren mit soviel Vehemenz in der Öffentlichkeit ausgetragen worden, wie der Streit um die Willensfreiheit. Der traditionelle Begriff von "Willensfreiheit", der auch dem deutschen Strafrecht und seinem Schuldbegriff zugrundeliegt, setzt voraus, daß Menschen jenseits aller psychologischen und neurobiologischen Determinanten entscheiden und handeln können. Eine solche Konzeption von Willensfreiheit ist weder begrifflich-philosophisch noch empirisch akzeptabel. In diesem Buch entwickeln Gerhard Roth und Michael Pauen gemeinsam ein neues Konzept der Willensfreiheit. Grundlage ist ein "aufgeklärter Naturalismus", der vorwissenschaftliche Phänomene, philosophische Begriffe und wissenschaftliche Methoden gleichermaßen ernst nimmt. Hieraus ergibt sich ein Verständnis von Freiheit, das die Fähigkeit zu selbstbestimmtem Handeln auf der Basis eigener Wünsche und Überzeugungen in den Mittelpunkt stellt. Roth und Pauen entgehen damit den Schwierigkeiten vieler traditioneller Konzeptionen, erfassen das Alltagsverständnis von Willensfreiheit und werden zugleich auch den Erkenntnissen der Neurobiologie gerecht. Ihr Konzept, so argumentieren die Autoren, macht zudem ein wesentlich differenzierteres Verständnis von Schuld und Verantwortung möglich, aus dem sich weitreichende Konsequenzen für das Strafrecht und den Strafvollzug ergeben. "Freie Handlungen dürfen weder unter Zwang noch unter vollständiger Determination vollzogen werden. Wir bezeichnen diese Forderung als Autonomieprinzip, aber Handlungen, die wir frei nennen, dürfen auch nicht zufällig sein."
- BK
- 77.02 / Philosophie und Theorie der Psychologie
- Classification
- PI 3340 Rechtswissenschaft / Allgemeine Rechtslehre und Rechtstheorie, Rechts- und Staatsphilosophie, Rechtssoziologie / Kategorien, Institutionen, Formen, Systematik, Grundbegriffe des Rechts / Wille, Handlung, Kausalität, Zufall
PI 4580 Rechtswissenschaft / Allgemeine Rechtslehre und Rechtstheorie, Rechts- und Staatsphilosophie, Rechtssoziologie / Strafrechtsphilosophie sowie weltanschaulich umstrittene Fragen des Rechts / Sonstiges
77.02 / Philosophie und Theorie der Psychologie
- RVK
- PI 3340 Rechtswissenschaft / Allgemeine Rechtslehre und Rechtstheorie, Rechts- und Staatsphilosophie, Rechtssoziologie / Kategorien, Institutionen, Formen, Systematik, Grundbegriffe des Rechts / Wille, Handlung, Kausalität, Zufall
PI 4580 Rechtswissenschaft / Allgemeine Rechtslehre und Rechtstheorie, Rechts- und Staatsphilosophie, Rechtssoziologie / Strafrechtsphilosophie sowie weltanschaulich umstrittene Fragen des Rechts / Sonstiges
-
Schönauer, S.: Wissensmanagement im Fokus kommunikativer Prozesse (2003)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 394) [ClassicSimilarity], result of:
0.057107307 = score(doc=394,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 394, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=394)
0.25 = coord(1/4)
- Abstract
- Der Untersuchungsgegenstand dieser Arbeit umfasst sowohl die theoretischen Konzepte zum Management von Wissen, als auch die Möglichkeit der Integration neuer Informations- und Kommunikationstechnologien in den Prozess des Wissensmanagements. Da eine kritische Betrachtung von Wissensmanagementkonzepten ohne der grundsätzlichen Darstellung des ökonomischen Umfeldes, sowie der Klärung der Frage, welche Faktoren die Entstehung von Wissen beeinflussen nicht möglich ist, werden im Rahmen dieser Arbeit auch diese Aspekte betrachtet. In Bezug auf die Integration neuer Informations- und Kommunikationstechnologien müssen neben den grundsätzlichen Charakteristika dieser Technologien auch die Bedeutung von Kommunikation und Information im Kontext des ökonomischen Systems, als auch im Kontext von Wissen untersucht werden. Aus der grundsätzlichen Darstellung der Zusammenhänge von Kommunikation und Wissen und der Bedeutung von Wissen für die Wirtschaft lassen sich einige grundlegende Anforderungen an das Management von Wissen stellen, anhand derer das Wissensmanagement untersucht wird. Eine Analyse der Charakteristika neuer Informations- und Kommunikationstechnologien und der Bedeutung von Kommunikation für die Wissensgenerierung können Hinweise darauf geben, welche Wissensmanagementkonzepte dem Untersuchungsgegenstand Wissen gerecht werden und welche Relevanz neue Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement haben.
Fragestellung: "Kann man Wissen wie eine Ressource behandeln und managen?" Diese Frage stellt bzw. sollte den Ausgangspunkt jedes Wissensmanagementkonzeptes darstellen und steht aus diesem Grund im Mittelpunkt dieser Arbeit. Anders formuliert könnte man sagen: "Ist der Begriff Wissensmanagement kontradiktorisch?" Stellen Wissensmanagementkonzepte nur einen neuen Managementtrend dar, der alte, wenig erfolgreiche Konzepte (Business Process Reengeneering, TQM, Lean Management, Kaizen) mit neuen Begriffen auffüllt? Was ist Wissen und welche Faktoren begünstigen die Entstehung und den Austausch von Wissen? Welche Bedeutung hat Kommunikation für die Entstehung von Wissen? Wenn Kommunikation einen entscheidenden Faktor für die Entstehung und den Austausch von Wissen hat, inwiefern können Informations- und Kommunikationstechnologien im Kontext von Wissensmanagement genutzt werden? Das sind die zentralen Fragen, die ich mir am Anfang und im Verlauf dieser Arbeit gestellt habe. Die Fragestellungen basieren auf sozialwissenschaftlichen Überlegungen, anhand derer das ökonomische Konzept Wissensmanagement untersucht wird. Nachdem Wissen ein soziales Konstrukt ist und die Transformation der knowledge-based economy vor allem von den neuen Informations- und Kommunikationstechnologien vorangetrieben und verstärkt wurde, erschien mir die Betrachtung des Managements von Wissen anhand dieser Fragestellungen für zielführend und an der Zeit.
- Source
- eine kritische Analyse im Kontext neuer Informations- und Kommunikationstechnologien
-
Watson, P.: ¬Das Lächeln der Medusa : Die Geschichte der Ideen und Menschen, die das moderne Denken geprägt haben (2000)
0.01
0.014276827 = product of:
0.057107307 = sum of:
0.057107307 = weight(_text_:und in 2219) [ClassicSimilarity], result of:
0.057107307 = score(doc=2219,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.4491759 = fieldWeight in 2219, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2219)
0.25 = coord(1/4)
- Abstract
- "Das 20. Jahrhundert war beides - eine Epoche der Gewalt und des Leidens, aber ebenso eine Zeit der tief greifenden und außergewöhnlichen Ideen, Entdeckungen und Entwicklungen. Peter Watsons Geschichte ist nicht diejenige der Kriege und Völkermorde, der Verträge und Politiker. Hier begegnet der Leser dem anderen 20. Jahrhundert, dem der Schriftsteller, Maler, Wissenschaftler und Philosophen. »Das Lächeln der Medusa« erzählt von bahnbrechenden Erkenntnissen, von Literatur und Kunst und natürlich von jenen Menschen, die diese Leistungen vollbracht haben - viele davon berühmt, manche unentdeckt oder in Vergessenheit geraten. Beginnend mit den vier großen Innovationen um das Jahr 1900 - die Entdeckung des Unbewussten, des Quants und des Gens sowie Picassos erste Werke in Paris -, spannt Watson seinen Bogen über ein ganzes Jahrhundert, zieht den Leser hinein in die spannende Welt der Wissenschaft und Kultur. Meisterhaft gelingt es ihm, geballtes Wissen kurzweilig und anschaulich zu vermitteln. Watsons Lust am Erzählen ist in jeder Zeile spürbar, sie macht dieses Standardwerk des Wissens zu einer Entdeckungsreise des Lesers selbst. Watson trennt die einzelnen Disziplinen nicht voneinander, sondern verwebt Wissenschaft und Philosophie, Kunst und Kultur zu einem großen Ganzen. Er zeigt, wie sie sich wechselseitig inspirieren, einander ergänzen, und setzt so ein ganzes Jahrhundert Geistesgeschichte in einen allumfassenden Kontext. Das Schreckliche und das Schöne (der Originaltitel dieses Buches lautet nach einem Vers von Yeats » A Terrible Beauty«) - im 20. Jahrhundert liegt beides dicht beieinander. Der Autor hat sich dem Schönen gewidmet, ohne die Schattenseiten außer Acht zu lassen. Dieses Buch, ein Füllhorn an Wissen und Geschichte(n), ist humorvoll, spannend und häufig überraschend."
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2002, H.11, S.106 (M. Springer): "Es ist eine großartige Idee, das 20. Jahrhundert im Rückblick als gigantisches Gedankenlabor zu beschreiben. Doch die aufgabe überschrreitet die Fähigkeiten eines Einzelnen bei weitem. So musste Watsons Mammutwerk eine groß angelegte Skizze bleiben, der erste Entwurf einer recht eigenwillig kolorierten Landkarte, in der nicht jede Straßenkreuzung stimmt. Wer sich aber von Watsons unerschöpflichem Wissensdurst anstecken lässt und hier und da auf eigene Fasut den Oroginalquellen nachgeht, wird dem Autor für seine vielen Wegweise dankbar sein." - Originaltitel: 'A terrible beauty'.
- Issue
- Aus dem Englischen übertragen und bearb. von Yvonne Badal.