-
Gleick, J.: ¬The information : a history, a theory, a flood (2011)
0.01
0.007392575 = product of:
0.0295703 = sum of:
0.0295703 = weight(_text_:und in 4979) [ClassicSimilarity], result of:
0.0295703 = score(doc=4979,freq=8.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24487628 = fieldWeight in 4979, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4979)
0.25 = coord(1/4)
- BK
- 05.20 / Kommunikation und Gesellschaft
- Classification
- 05.20 / Kommunikation und Gesellschaft
- RSWK
- Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
- Subject
- Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
-
Jungen, O.: Grenzen der Technik : das letzte Refugium menschlicher Intelligenz (2018)
0.01
0.007392575 = product of:
0.0295703 = sum of:
0.0295703 = weight(_text_:und in 4331) [ClassicSimilarity], result of:
0.0295703 = score(doc=4331,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24487628 = fieldWeight in 4331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=4331)
0.25 = coord(1/4)
- Source
- http://www.faz.net/aktuell/feuilleton/hoch-schule/geist-und-mehr/grenzen-der-technik-das-letzte-refugium-menschlicher-intelligenz-15659399.html
-
Brater, J.: Weiß bleibt weiß und rot bleibt rot (2019)
0.01
0.007392575 = product of:
0.0295703 = sum of:
0.0295703 = weight(_text_:und in 5207) [ClassicSimilarity], result of:
0.0295703 = score(doc=5207,freq=2.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24487628 = fieldWeight in 5207, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=5207)
0.25 = coord(1/4)
-
Wortsuche im Millisekunden-Takt (2002)
0.01
0.0073555196 = product of:
0.029422078 = sum of:
0.029422078 = weight(_text_:und in 6999) [ClassicSimilarity], result of:
0.029422078 = score(doc=6999,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24364883 = fieldWeight in 6999, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=6999)
0.25 = coord(1/4)
- Content
- "Unsere Fähigkeit zu Sprechen beruht auf einem mehrstufigen Hochgeschwindigkeitsprozeß im Gehirn, belegen niederländische Max-Planck-Wissenschaftler Sprachproduktion ist das Ergebnis zweier sehr schnell ablaufender Vorgänge im Gehirn, dem Abruf geeigneter Einträge aus einem "mentalen Lexikon" sowie der Vorbereitung dieser "Einträge" für das eigentliche Sprechen, berichten Wissenschaftler vom Max-Planck-Institut für Psycholinguistik in Nijmegen/Niederlande. Jeder Mensch lernt Sprechen und das bedeutet vor allem: Wörter zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Erwachsener bereits bis zu 50 Millionen Wörter gesprochen. Es gibt kaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unterhaltung liegt die durchschnittliche Sprechgeschwindigkeit bei zwei bis vier Wörtern pro Sekunde. Die Wörter dazu werden fortlaufend aus unserem "mentalen Lexikon" abgerufen, das mehrere zehntausend "Einträge" enthält. Bei diesem Vorgang machen wir erstaunlich wenig Fehler (und sagen z.B. "links" statt "rechts"). Durchschnittlich passiert uns das nicht mehr als einmal pro Tausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachmechanismus organisiert? Wissenschaftler erklären die prachproduktion als ein System zweier aufeinanderfolgender Verarbeitungsschritte (s. Abb.). Im ersten Schritt erfolgt die Wortauswahl: Erhält das Gehirn einen bestimmten inhaltlichen Reiz, z.B. von den visuellen Zentren, wählt es einen dazu passenden lexikalischen Eintrag aus dem mentalen Lexikon. Der zweiten Schritt behandelt die Formenkodierung und berechnet die artikulatorischen Gesten, die für die Aussprache des Zielwortes benötigt werden. Es ist der Forschergruppe um Prof. Willem Levelt, Dr. Antje Meyer und Dr. Ardi Roelofs in langjähriger Teamarbeit gelungen, das Modell experimentell zu bestätigen; Dr. Roelofs konnte diese Theorie in einem umfassenden Computerprogramm mit dem Namen "WEAVER++" umsetzen. Ein wichtiges experimentelles Verfahren zur Erforschung des lexikalischen Zugriffs im Gehirn ist das Benennen von Bildern. Auf dem Monitor erscheint ein Bild, z.B. ein Pferd, das die Versuchsperson so schnell wie möglich benennen soll. Hierbei wird die Reaktionszeit, d.h. die Zeit zwischen dem Erscheinen des Bildes und dem Beginn des Sprechens exakt gemessen. Diese liegt normalerweise bei 600 Millisekunden (ms). Für die Auswahl und Aussprache eines Wortes brauchen wir also weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst erfolgt in zwei Teilstufen: Zuerst wird das Bild erkannt und ein Zielkonzept für die Benennungsaufgabe selektiert. Die Tests können so gesteuert werden, dass die Versuchspersonen entweder "Pferd", "Tier" oder "Hengst" auswählen, um das Bild zu benennen. In der zweiten Stufe, der so genannten "Lemma-Selektion", wird der hiermit übereinstimmende Eintrag gewählt, also z.B. nur "Pferd". Diesen Eintrag nennt man "Lemma", was soviel bedeutet wie "syntaktisches Wort", d.h. es enthält alle syntaktischen Eigenschaften wie Wortklasse (Substantiv, Verb usw.) und syntaktische Merkmale (wie Geschlecht bei Substantiven, transitive Beschaffenheit bei Verben). Diese Wortauswahl erfolgt in Konkurrenz zu anderen Wörtern. Die Max-Planck-Wissenschaftler konnten messen, daß semantisch verwandte Wörter, wie "Tier" oder "Hengst", bei diesem Schritt ebenfalls aktiviert werden.
Mit Hilfe der quantitativen Computertheorie wird die Reaktionszeit für eine Wortauswahl unter Konkurrenz vorausgesagt. Überprüft werden diese Voraussagen in spezifischen Bildbenennungsexperimenten: Dabei werden den Versuchspersonen beim Bildbenennen - visuell oder akustisch - andere Wörter präsentiert. Diesen Ablenkungsreiz müssen sie ignorieren. Ist beispielsweise "Pferd" das Zielwort, reagiert die Versuchsperson beim Hören des damit nicht verwandten Wortes "Stuhl" etwas langsamer. Hört die Versuchsperson jedoch das semantisch verwandte Wort "Kuh", wird eine viel stärkere Verzögerung gemessen, zusätzlich etwa 50 bis 100 Millisekunden (je nach Rahmenbedingungen). Diesen "semantischen Verzögerungseffekt" fanden die Max-Planck-Wissenschaftler in einer Vielzahl von Experimenten bestätigt. Der Zeitverlauf der Lemma-Selektion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologische Forschung in Leipzig mit Hilfe der Magnetenzephalographie (MEG) gemessen und bestätigt. Hierbei fanden die Max-Planck-Forscher außerdem heraus, dass bei der emma-Auswahl Regionen im linken lateralen temporalen Lobus aktiv sind. Nach der Lemma-Selektion erfolgt der zweite Schritt, die Wortformplanung oder Wortformen-Kodierung. Dazu muss zuerst der phonologische Code abgerufen werden, d.h. eine Reihe phonologischer "Segmente" oder "Phoneme", z.B. " p, f, e, r, d". Bei geläufigen Wörtern wird der phonologische Code schneller (bis zu 40 Millisekunden ) abgerufen als bei selten benutzten Wörtern. Bei der Bildbenennung kann der Zugriff dadurch erleichtert werden, dass der Versuchsperson zeitgleich phonologisch verwandte Wörter präsentiert werden. Versuchspersonen nennen "Pferd" schneller, wenn sie während der Bildanbietung das phonologisch verwandte Wort "Pfeil" hören, als das phonologisch unterschiedliche Wort "Stuhl". Auch den Zeitverlauf dieser phonologischen Suche konnten die Wissenschaftler mit dem Computermodell "WEAVER++" exakt voraussagen. Ist das Abrufen des Codes aus dem mentalen Lexikon abgeschlossen, erfolgt die Silbenbildung. Diese wird Phonem für Phonem zusammengestellt, aus "p, f, e, r, d" zum Beispiel wird /pfert/. Wird das Zielwort jedoch im Plural benötigt (z.B. wenn zwei ferde auf dem Bild zu sehen sind), werden nacheinander zwei Silben - /pfer/--/de/ - gebildet. Anders gesagt, ob die Silbe "/pfert/" oder "/pfer/" gebildet wird, ist situationsbedingt. Das schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekunden pro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reaktionszeit: Testpersonen brauchten beim Benennen für mehrsilbige Wörter länger als für einsilbige. Die letzte Stufe der Wortformen-Kodierung ist das phonetische Kodieren, das Abrufen eines artikulatorisch-motorischen Programms für jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an, daß dazu ein mentaler Silbenvorrat existiert, ein "Lager" an Gesten oder motorischen Programmen für häufig benutzte Silben. Die Vermutung liegt nahe, daß beim Speichern häufig gebrauchter Silben der prämotorische Cortex/die Broca Area beteiligt ist. Die faktische Ausführung der aufeinanderfolgenden Silbenprogramme vom laryngealen und supralaryngealen Artikulationssytem generiert letztendlich das gesprochene Wort."
-
Capurro, R.: Hermeneutik der Fachinformation (1986)
0.01
0.0073555196 = product of:
0.029422078 = sum of:
0.029422078 = weight(_text_:und in 3613) [ClassicSimilarity], result of:
0.029422078 = score(doc=3613,freq=22.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24364883 = fieldWeight in 3613, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=3613)
0.25 = coord(1/4)
- Abstract
- Die gegenwärtig modernste Methode zur Verarbeitung, Speicherung, Wiederfindung und Verbreitung von (schriftlich) fixierten Fachinformationen, nämlich das "Information Retrieval", wirft eine Reihe von Fragen auf, die in der philosophischen Diskussion unter die Rubrik "Hermeneutik" fallen. Die Hermeneutik befaßt sich mit dem Verstehen und sie hat, bevor sie zu einer allgemeinen bzw. philosophischen Hermeneutik entwickelt wurde, diese Fragen in Zusammenhang mit der Interpretation von "klassischen" Texten (insbesondere theologischen, aber auch literarischen, juristischen usw.) eingehend thematisiert: aus den Fragen, die z.B. die Interpretation von juristischen Texten aufwarf, entwickelte sich eine juristische Hermeneutik usw. Von hier aus ist es verständlich, daß, wann immer die Auseinandersetzung mit dem schriftlich Fixierten im Mittelpunkt steht, eine dem jeweiligen Textinhalt entsprechende Hermeneutik entsteht, wobei es unwichtig ist, ob die behandelten hermeneutischen Fragen ausdrücklich unter diesem Namen erörtert werden oder nicht. Sammlung, Auswertung, Verarbeitung, Speicherung, Wiederfindung, Vermittlung und Nutzung von Fachinformationen weisen auf eine lange Geschichte hin, die aber nicht Gegenstand dieser Untersuchungen ist.[1] Unser sogenanntes Informationszeitalter kann u.a. als solches mit Recht gekennzeichnet werden, nicht weil es so etwas wie Information oder Fachinformation in früheren Epochen nicht gab, sondern weil diese Sachverhalte in unserer Zeit besonders 'frag-würdig' geworden sind. Der Verlust an Selbstverständlichkeit ist das Kennzeichen einer hermeneutischen, d.h. interpretationsbedürftigen Situation. Fachinformation als hermeneutische Frage? Das betrifft die Frage nach ihrem Verstehen und unser Selbstverständnis.
Wenn heute die Prozesse der Produktion, Vermittlung und Nutzung von Fachinformation sich in einem nicht nur technologischen Umbruch befinden, dann ist das nicht einem "blinden Fortschritt" zuzuschreiben (obwohl es in diesem Bereich an "Fortschrittsgläubigkeit" nicht mangelt), sondern einer (vermutlich sich lange anbahnenden) Änderung des Verhältnisses des Menschen zu diesem Sachverhalt. Worauf diese Änderung zurückzuführen ist, ist eine weitere hier nicht zu erörternde Frage. Worin diese Änderung besteht, sofern sie heute mit dem Begriff der Fachinformation zum Ausdruck kommt, kann vielleicht im Laufe der folgenden Untersuchungen deutlicher werden. In diesem Falle könnten wir auch mit der Fragwürdigkeit unseres Bezuges zur Sprache als Information besser fertig werden.[2] Die Ausarbeitung dieses Bezuges seitens einer Hermeneutik der Fachinformation versteht sich als ein Beitrag dazu. Der Gang dieser Untersuchungen kann folgendermaßen angedeutet werden: Im ersten Teil soll die Fragestellung umrissen werden. Das erste Kapitel ist der Erörterung einiger hermeneutischer Grundbegriffe, die der gesamten Untersuchung zugrunde liegen, gewidmet. Im zweiten Kapitel soll ein Vorbegriff von Fachinformation, ausgehend von seinem gegenwärtigen Verständnis, dargelegt werden. Schließlich werden einige Beiträge zur Hermeneutik der Fachinformation analysiert. Im zweiten Teil wird die Frage nach der Grundlegung einer Hermeneutik der Fachinformation behandelt. Die Tragweite des dargelegten Ansatzes wird zunächst durch die Auseinandersetzung mit in unserem Bereich vorherrschenden Modellen erprobt. Anschließend werden in Anknüpfung an die Ansätze von Martin Heidegger, Medard Boss und Hannah Arendt einige Grundzüge des Mensch-seins thematisiert. Anhand dieser hermeneutischen Auslegungen wird der Versuch unternommen, eine Konstitutionstheorie der Fachinformation zu erarbeiten.
Im dritten Teil schließlich werden jene hermeneutischen Fragen aufgeworfen, die sich in Zusammenhang mit dem Information Retrieval, d.h. mit der Speicherung und Wiedergewinnung von Fachinformationen aus dem Computer, stellen. Diese Beiträge zur Hermeneutik des Information Retrieval erfolgen vorwiegend am Beispiel der bibliographischen Datenbasen. Dabei wird auch die Tragweite unseres Ansatzes im Hinblick auf andere Möglichkeiten der elektronischen Informationsspeicherung und -wiedergewinnung zum Ausdruck kommen. Die Erörterung des Information Retrieval als Beitrag zur Sozialisation der Fachinformation beschließt diese Untersuchungen. Der besondere Charakter einer Hermeneutik der Fachinformation, zu deren Kern zweifellos gegenwärtig die sich aus dem Information Retrieval ergebenden Fragen gehören, kann folgendermaßen hervorgehoben werden: Es geht um das Verstehen im Sinne einer Grundstruktur des Mensch-seins. Von hier aus soll der Zusammenhang der zwischenmenschlichen Kommunikation, insbesondere im Hinblick auf die Vermittlung von schriftlich fixiertem Wissen bzw. von Texten erläutert werden. Es geht also bei dieser Hermeneutik weder um das Verstehen von Naturerscheinungen noch von geschichtlichen Ereignissen. Ferner, und im Unterschied zu anderen Hermeneutiken, die sich auch mit dem Verstehen von Texten befassen und sich dabei z.B. auf ein bestimmtes Gebiet beschränken, geht es hier um fachliche Texte in einem umfassenden Sinne. Schließlich werden diese Texte, ihrem ursprünglichen Mitteilungscharakter entsprechend, als Fachinformation verstanden. Als besondere Problematik des Verstehens von Fachinformationen stellt sich hier nicht so sehr die Frage nach dem Verstehen von gedruckten Texten, wie es bisher die "Texthermeneutiken" getan haben, sondern die nach dem Verstehen von im Computer gespeicherten Fachinformationen. In unserer Darstellung werden wir exemplarisch auf die hermeneutischen Fragen, die sich im Falle von bibliographischen Datenbasen stellen, eingehen. Die Schnittmengen aus diesen unterschiedlichen Sachverhalten bilden das Ziel und die Grenze dieser Untersuchungen.
-
Throtha, K. von: Rede von Minister Klaus von Throtha anlässlich der Diplomierungsfeier an der HBI am 25. Februar 2000 : "Wir erleben eine kulturelle und technische Revolution" (2000)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 4847) [ClassicSimilarity], result of:
0.029273104 = score(doc=4847,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 4847, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4847)
0.25 = coord(1/4)
- Content
- Ministerielle Erkenntnisse: "Wir stehen am Beginn einer Entwicklung, die deutlich über den Begriff 'Informationsgesellschaft' hinausgeht. Dies war eine zutreffende Bezeichnung für die technologische Seite des Aspekts. Wissensgesellschaft dagegen beschreibt die menschliche Dimension des Wandels. Erst durch den Menschen wird Information zu Wissen." "Charakteristisch für die Wissensgesellschaft ist das hohe Tempo der Wissensvermehrung. Alle fünf bis sieben Jahre verdoppelt sich das weltweit verfügbare Wissen. Die Hälfte bleibt nur drei bis vier Jahre aktuell und damit entsprechend wertvoll." "Das Wachstum des Wissens scheint deshalb unendlich. Wissen ist der Rohstoff, der sich durch sich selbst erneuert, die einzige Ressource, die sich bei intensivem Gebrauch nicht verbraucht, sondern vermehrt." "Nur strukturierte Informationen werden verwertbares Wissen."
-
Frey, S.: Vom Wort zum Bild - Von der Vernunft zum Instinkt? (2002)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 257) [ClassicSimilarity], result of:
0.029273104 = score(doc=257,freq=16.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 257, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=257)
0.25 = coord(1/4)
- Content
- "Die Medien können erstaunliche Dinge bewirken. Sie können Politiker zu Fall bringen, Kriege gewinnen, Firmen große Probleme schaffen. Aber wie gelangten sie eigentlich in diese Machtposition? Was ist der Mechanismus, der es ihnen erlaubte, sich in einer Weise zu entwickeln, dass heutzutage nicht zu Unrecht von ihnen als von einer "vierten Gewalt" im Staate gesprochen wird? Schließlich haben die Medien ja keinerlei formales Recht, Politiker in Amt und Würden zu heben oder sie zu feuern. Im Falle von Kriegen ist es ihnen nicht erlaubt, an der strategischen Planung oder am Kampfgeschehen selbst teilzunehmen. Und wenn sie Firmen in große Bedrängnis bringen, so nicht etwa auf dem üblichen Wege eines regulären Wettbewerbs. Die Macht der Medien ist von ganz anderer Art. Sie beruht gänzlich auf kommunikativem Geschick, d. h. auf der Fähigkeit, Menschen dazu zu bringen, die von den Medien verbreitete Information zu beachten, sie zu verstehen und ihr Glauben zu schenken. - Knecht des Gehirns - Von der Macht der Medien zur Manipulation der öffentlichen Meinung kann daher auch nur insoweit gesprochen werden, als es ihnen gelingt, die Aufmerksamkeit der Menschen auf sich zu lenken und ihr Publikum davon zu überzeugen, dass die ihm übermittelte Information zuverlässig ist. Aber wie schaffen sie das? Offenkundig nicht einfach durch die bloße Verbreitung von Information. Denn in einer modernen demokratischen Gesellschaft, die dem Bürger freien, unzensierten Zugang zu einer unlimitierten Anzahl von Informationsquellen gewährt, stehen die Medien selbst in einer Konkurrenzsituation, die alle Merkmale eines darwinistischen Überlebenskampfes aufweist. Und diesen können sie - falls Darwins Überlegungen korrekt sind - überhaupt nur dadurch gewinnen, dass sie sich ihren Umweltbedingungen optimal anpassen. Diese wiederum sind im Falle der Medien nun aber in erster Linie definiert durch die Funktionsweise jenes wundersamen Informationsverarbeitungsapparats, den wir das menschliche Gehirn nennen. Wenn es also darum gehen soll, herauszufinden, wie es den Medien gelingen konnte, sich den hehren Status einer vierten Gewalt anzueignen - einer Gewalt, die in Montesquieus Modell der drei Staatsgewalten noch gar nicht mal vorgesehen war -, müssen wir klären, wie der menschliche Wahrnehmungsapparat mit den Informationen umgeht, die ihm die Medien über die Sinnesorgane zuführen. Das heißt, wir müssen, um es in den Worten von Kurt und Gladys Lang, den großen Pionieren der amerikanischen Medienforschung, auszudrücken, uns der schwierigen Aufgabe stellen, herauszufinden, wie "das Beurteilungsschema des anonymen Herrn Jedermann" funktioniert.- Mehr als tausend Worte - Dazu aber gilt es zunächst einmal zu klären, auf welchem Wege es überhaupt gelingt, homo sapiens etwas "glauben zu machen". Wie kann man es erreichen, dass Menschen das Wahrgenommene als wahr erachten, wie ist es zu schaffen, dass ihnen ein Argument einleuchtet, dass sie eine Schlussfolgerung überzeugt? Man würde denken, dass bei einem Wesen, das sich - als einziges auf diesem Planeten - mit der Erfindung der Lautsprache sein eigenes Kommunikationswerkzeug geschaffen hat, der Prozess der Meinungsbildung vor allem auf verbalem Wege erfolgt. Ohne die Erfindung der Sprache hätte der Mensch schließlich einen sehr engen geistigen Horizont. Er wüsste nichts von der Existenz all jener Dinge, die jenseits seines engen persönlichen Erfahrungsraumes liegen. Er könnte kaum vom Wissen und vom Erfahrungsschatz anderer profitieren. Ja, er wüsste nicht mal, ob und in welcher Weise das Weltbild, das sein Gegenüber sich zurechtlegt, sich von dem seinigen unterscheidet. ..."
-
(Über-)Leben in der Informationsgesellschaft : Zwischen Informationsüberfluss und Wissensarmut. Festschrift für Prof. Dr. Gernot Wersig zum 60. Geburtstag (2003)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 1320) [ClassicSimilarity], result of:
0.029273104 = score(doc=1320,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 1320, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1320)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: RAUCH, W.: Neue Informations-Horizonte? VÖLZ, H.: Gedanken zut Verdaulichkeit von Informationen; RATZEK, W.: Suum cuique - Jedem das Seine! Oder: Was wollen wir wissen; VOWE, G.: Das Internet als elektronische Agora? Zum politischen Potential internetbasierter Kommunikation; GRUDOWSKI, S.: Ideen zur Förderung der Fachinformations-Institutionen durch Fachinformationspolitik: Hyperinformationszentren und Informationswissenschaft; ZIMMERMANN, H.H.: Zur Gestaltung eines Internet-Portals als offenes Autor-zentriertes Kommunikationssystem; HENNINGS, R.-D.: Machine Learning, Data Mining and Knowledge Discovery: Von der Generierung zur Entdeckung von Wissen
-
"Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen" unterzeichnet (2003)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 2021) [ClassicSimilarity], result of:
0.029273104 = score(doc=2021,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 2021, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=2021)
0.25 = coord(1/4)
- Abstract
- Gemeinsam mit den Repräsentanten der großen deutschen und internationalen Wissenschaftsorganisationen hat Prof. Peter Gruss, der Präsident der Max-Planck-Gesellschaft, am Mittwoch, den 22. Oktober, die "Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen" (Berlin Declaration an Open Access to Knowledge in the Sciences and Humanities) unterzeichnet. Vorausgegangen war eine dreitägige Konferenz im Berlin-Dahlemer Harnack-Haus der Max-Planck-Gesellschaft. Dabei diskutierten international führende Experten über neue Zugangsmöglichkeiten zu wissenschaftlichem Wissen und kulturellem Erbe durch das Internet.
-
Gödert, W.; Lepsky, K.: Informationelle Kompetenz : ein humanistischer Entwurf (2019)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 5955) [ClassicSimilarity], result of:
0.029273104 = score(doc=5955,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 5955, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5955)
0.25 = coord(1/4)
- Abstract
- Diskussionen um Datennetze und Informationstechnik drehen sich häufig um kompetentes Handeln. In der Publikation werden Voraussetzungen eines autonomen informationellen Handelns gezeigt: Abstrahieren, Analogien bilden, Plausibilitäten beachten, Schlussfolgern und kreativ sein. Informationelle Kompetenz ist gelebte Informationelle Autonomie. Es lassen sich Konsequenzen für ein zukünftiges Menschenbild in informationstechnischen Umgebungen ziehen.
-
Kuhlen, R.; Semar, W.: Information - ein Konstrukt mit Folgen (2023)
0.01
0.007318276 = product of:
0.029273104 = sum of:
0.029273104 = weight(_text_:und in 775) [ClassicSimilarity], result of:
0.029273104 = score(doc=775,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.24241515 = fieldWeight in 775, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=775)
0.25 = coord(1/4)
- Abstract
- Im Anschluss an die einführenden, auf Information bezogenen Kapitel in der 5. und 6. Ausgabe der Grundlagen (Kuhlen 2004; Kuhlen 2013) soll das pragmatische Verständnis von Information hier weiter theoretisch abgesichert werden.1 Um es auf den Punkt zu bringen: Information wird nicht über einen (wie auch immer begründeten) Wahrheitsbegriff bestimmt. Was Information ist, was also Nutzer oder Nutzerinnen in Situationen informationeller Unsicherheit oder Unterbestimmtheit tatsächlich aus der auf sie einstürmenden oder ihnen zur Verfügung gestellten Informationsangebote verwenden, was also zu Information wird, entscheiden letztlich sie - wobei das sicherlich nicht immer autonome Entscheidungen sind, dafür sind die darauf wirkenden externen Kontextfaktoren zu groß.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Time, quantum and information (2003)
0.01
0.00715783 = product of:
0.02863132 = sum of:
0.02863132 = weight(_text_:und in 2900) [ClassicSimilarity], result of:
0.02863132 = score(doc=2900,freq=30.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.23710044 = fieldWeight in 2900, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=2900)
0.25 = coord(1/4)
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2004, H.11., S.92-96 (S. Stier): "Nach Einsteins Allgemeiner Relativitätstheorie gibt es im Kosmos Objekte von so ungeheurer Gravitationskraft, dass aus ihrem Inneren keinerlei Informationen, auch nicht in Form von Licht, nach außen dringen können; sie werden deshalb als Schwarze Löcher bezeichnet. Eines der vielen Rätsel, die sie umgeben, war lange Zeit die Größe ihrer Entropie (siehe »Das holografische Universum« von Jacob Bekenstein, Spektrum der Wissenschaft 11/ 2003, S. 34). Nach der herkömmlichen Definition ist die Entropie ein Maß für den Informationsgehalt eines Objekts; sie berechnet sich aus der Zahl seiner inneren Zustände, in denen es dieselben Eigenschaften hat. Damit hängt sie davon ab, welche Eigenschaften man zur Beschreibung des Objekts wählt und wie detailliert man seine inneren Zustände beschreibt. Entropie und Information sind also relative, vom Kontext einer bestimmten Beschreibung abhängige Maße. je detaillierter die Beschreibung seiner inneren Zustände, desto größer die Entropie. Nicht so bei einem Schwarzen Loch: Da es alle Informationen über sein Inneres verbirgt, ist seine Entropie die Obergrenze für alles, was man überhaupt darüber wissen könnte, unabhängig von irgendwelchen Modellen seiner Struktur. Information wird damit zu einer unabhängigen Eigenschaft eines Objekts und zu einer absoluten physikalischen Größe. Das ist ein radikaler Bruch im Verständnis von Information. Mit Hilfe der von Bekenstein vor dreißig Jahren angegebenen Formel kann man berechnen, wie die Entropie eines Schwarzen Lochs von der Größe unseres Universums dadurch zunimmt, dass von außen ein Proton hineinstürzt. Diese Änderung lässt sich als der Informationsgehalt des Protons selbst interpretieren: Es sind 10**40 Bit, ein Wert, der im Rahmen der etablierten Physik eigentlich nicht erklärbar ist.
Zu genau diesem Ergebnis war schon einige Jahre zuvor Carl Friedrich von Weizsäcker auf völlig anderem Weg gekommen. Die von ihm entwickelte Urtheorie ist der radikale Versuch, die gesamte Naturwissenschaft, mit der Quantentheorie an der Spitze, auf den Informationsbegriff zurückzuführen: Ure sind nichts weiter als die Quantenbits (»Qubits«), die im Zusammenhang mit den Quantencomputern zu Ehren gekommen sind. Dabei setzt die Urtheorie nicht einmal die Struktur des Raumes voraus; diese ergibt sich erst aus der Verknüpfung der kleinsten Informationseinheit, der Entscheidung zwischen zwei Möglichkeiten, und der Quantentheorie. Bis heute ist die Urtheorie ein Fragment geblieben; so ist es nicht gelungen, eine Theorie der Wechselwirkung der Ure zu entwickeln, die schließlich zu einer Theorie der Elementarteilchen führen sollte. Der vorliegende Sammelband ist von Weizsäcker zu seinem 90. Geburtstag gewidmet; die sehr wenigen Forscher, die an der Urtheorie weitergearbeitet haben, kommen in mehreren Beiträgen zu Wort. Der Frankfurter Physiker Thomas Görnitz fasst seine eigenen einschlägigen Arbeiten zusammen. Dazu gehört die oben genannte Verknüpfung der Entropie Schwarzer Löcher mit der Urtheorie, die für Görnitz die »zentrale Anbindung« an die etablierte Physik ist. Ausgehend von den heute bekannten Größenordnungen für Radius und Dichte des Universums kommt er zu Abschätzungen für die Entropie des gesamten Universums und die Anzahl der darin enthaltenen Nukleonen und Photonen, die nach seiner Aussage mit den empirisch bekannten Daten gut übereinstimmen. Das gelte auch für die Energie der Photonen im Universum, der so genannten » kosmischen Hintergrundstrahlung«. Die Verknüpfung der Urtheorie mit der Allgemeinen Relativitätstheorie führe zu einem plausiblen kosmologischen Modell, in dem sich die extreme Kleinheit der »kosmologischen Konstanten«, der Vakuumenergie des Kosmos, in natürlicher Weise ergebe. Für die etablierten Theorien stelle dies ein erhebliches Problem dar.
Während sich die Beiträge zur Urtheorie an Spezialisten wenden, finden sich zu anderen Arbeitsgebieten von Weizsäckers eher allgemeinverständliche Darstellungen: Astro- und Kernphysik mit den thermonuklearen Prozessen in Sternen und der Entstehung der Planetensysteme sowie die Philosophie der Naturwissenschaft und der Zeit - alles in der für solche Festschriften typischen bunten Mischung. Hervorgehoben sei die Darstellung des Hamburger Friedensforschers Götz Neuneck zur deutschen Atomforschung während des Zweiten Weltkriegs und zu den nachfolgenden Bemühungen internationaler Wissenschaftler, die Institution des Kriegs nach dem Bau der Atombombe abzuschaffen. In beiden hat von Weizsäcker eine herausragende Rolle gespielt. Ein wichtiges Thema des Buchs sind die Grundlagen der Quantentheorie. Mit der Charakterisierung von Objekten durch Information ist die Urtheorie eine radikale Weiterführung der »Kopenhagener Deutung«, jener orthodoxen, aber von vielen Physikern nur mangels einer überzeugenden Alternative akzeptierten Interpretation der Quantentheorie. Ein seit deren Anfängen andauernder Streit geht darum, ob die Wellenfunktion, die Wahrscheinlichkeiten für Messergebnisse vorhersagt, gemäß der Kopenhagener Deutung das mögliche Wissen eines Beobachters darstellt oder eine davon unabhängige Realität beschreibt. Wie lebendig diese Debatte ist, machen mehrere Beiträge in diesem Buch deutlich. Hans Primas und Harald Atmanspacher lösen den Widerspruch nach dem Muster des Teilchen-Welle-Dualismus auf Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zu Grunde liegenden Fragestellung notwendig seien. Claus Kiefer erläutert das Phänomen der »Dekohärenz«, wonach der quantenmechanische Messprozess in neuem Licht erscheine, wenn auch die Kopplung des Messgeräts an seine Umgebung berücksichtigt werde, denn unrealistische Überlagerungszustände im Messprozess wie die berühmte sowohl tote als auch lebendige »Schrödinger'sche Katze« seien bereits durch die Quantenmechanik selbst ausgeschlossen. Spätestens wenn der Kosmos als Ganzes betrachtet werde, komme die Kopenhagener Deutung an ihr Ende, denn hier gebe es keinen Beobachter mehr, für den die quantentheoretischen Möglichkeiten zu Fakten werden könnten.
Einen interessanten Vorschlag machen schließlich Ceslav Brukner und Anton Zeilinger von der Universität Wien. Ganz in von Weizsäckers Sinn, die Naturwissenschaft auf Ja-Nein-Aussagen zurückzuführen, streben sie nach einer Herleitung der Quantentheorie aus der Informationstheorie. Ihr Ausgangspunkt ist die Annahme, dass jedes physikalische Objekt einen endlichen Informationsgehalt hat. Da diese Information aber nicht ausreiche, um die Resultate aus allen möglichen Messungen festzulegen, könne eine bestimmte Messung nicht mehr mit Sicherheit vorhergesagt werden. Der Indeterminismus der Quantentheorie ist damit auf ein fundamentaleres Prinzip zurückgeführt. Viele Autoren heben die Bedeutung von Weizsäckers Fragen und Antworten als Quelle der Inspiration und als Herausforderung an die etablierte Wissen schaft hervor, die in ihrer Vorausschau noch nicht an ihr Ende gekommen sei. Dem ist wenig hinzuzufügen."
-
Peine, S.: Benutzerfreundlich (2002)
0.01
0.00661212 = product of:
0.02644848 = sum of:
0.02644848 = weight(_text_:und in 1417) [ClassicSimilarity], result of:
0.02644848 = score(doc=1417,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.219024 = fieldWeight in 1417, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1417)
0.25 = coord(1/4)
- Content
- "Kennt doch jeder: Man will in einer fremden Stadt am Automat einen Fahr schein für die Straßenbahn ziehen. Quälende Minuten später steht man immer noch vor dem vertrackten Gerät, nur viel wütender und vor' allem beschämt, weil man sich im Gewirr der Knöpfe, Straßenverzeichnisse und Tarife verheddert hat. Statt der Einzelfahrkarte für einen Erwachsenen hält man schließlich ein 24-Stunden-Familien-Ticket in der Hand. Das Ende vom Lied: Der Benutzer hält sich für technisch vertrottelt. Dabei ist genau das Gegenteil der Fall: Der Entwickler, der sich das Gerät ausdachte, besaß keinerlei Einfühlungsvermögen in die Logik des künftigen Benutzers. Nach leidvoller Erfahrung hat sich inzwischen die Erkenntnis durchgesetzt, dass Benutzerführung gelernt sein muss und sie nicht einfach technikvernarrten Ingenieuren überlassen werden darf An der Stuttgarter Hochschule für Medien gibt es deshalb seit dem Wintersemester 2001/2002 den Bachelor-Studiengang Informationsdesign - Studenten lernen in sieben Semestern, wie man Menschen sinnvoll durch den Informationsdschungel des 21. Jahrhunderts führt. Wie entwickelt man ein Orientierungsssystem für ein Museum, das den Besucher nicht in die Irre führt? Wie kommt ein Kunde am Bankautomaten zügig an sein Geld, ohne dass seine Karte wegen einer irrtümlich gedrückten Taste sofort verschluckt wird? Und wie schreibt man eine Gebrauchsanweisung, die tatsächlich ein technisches Gerät bedienen hilft? Klar, dass es hier nicht nur um Handwerk, sondern vor allem auch um das Verständnis menschlicher Kommunikation geht. In den USA und in Großbritannien ist der Studiengang Informationsdesign längst etabliert. Die Absolventen fänden problemlos Jobs, sagt der Stuttgarter Studiengangsleiter Professor Frank Thissen. Auch hier zu Lande scheint die Wirtschaft sehr angetan. Dabei hat sie das neue Berufsbild geradezu provoziert. Weil neue Produkte meist unter großem Zeitdruck entwickelt werden, sparen viele Firmen am Ende ausgerechnet an den Benutzertests. Auch manche Bedienungsanleitung verunzierte heute nicht die Welt, wäre sie zuvor nur ein einziges Mal mit technisch durchschnittlich begabten Menschen in Berührung gekommen. Welchen Nutzen hat schon ein Benutzerhandbuch, das einem derartige Anleitungen zumutet: "Wenn Sie die Druckformatvorlage eines Dokumentes mit der Druckformatvorlage einer Dokumentvorlage verbinden, ersetzen die Druckformatdefinitionen des Dokuments die gleichnamigen Druckformatdeflnitionen der Dokumentvorlage." Es gibt noch viel zu tun für die Informationsdesign-Studenten. Manchmal allerdings reichte gesunder Menschenverstand schon aus, um Peinlichkeiten zu vermeiden, so wie die Warnung auf dem Beipackzettel eines Schlafmittels: "Achtung, kann Müdigkeit verursachen!"."
-
Mertens, M.: ¬Ein Manager regelt Sprache und Raum (2003)
0.01
0.00661212 = product of:
0.02644848 = sum of:
0.02644848 = weight(_text_:und in 2228) [ClassicSimilarity], result of:
0.02644848 = score(doc=2228,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.219024 = fieldWeight in 2228, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2228)
0.25 = coord(1/4)
- Content
- "Das menschliche Gehirn besteht aus zwei äußerlich fast spiegelgleichen Hälften. Doch die Kompetenzen der beiden Partner sind klar geregelt. Die linke Seite ist für Sprache zuständig, die räumlichen Fähigkeiten sitzen rechts. Hirnforscher um Gereon Fink vom Forschungszentrum Jülich konnten nun erstmals nachweisen, wo sich die Schaltzentrale befindet, die eingehende Aufgaben an den jeweils zuständigen Sachbearbeiter weiterleitet. Sie fanden heraus, dass ein Bereich im Stirnhirn die Arbeit im Gehirn einteilt und koordiniert, berichten sie im Wissenschaftsmagazin Science (Bd. 301, S. 384, 2003). Die Hirnforscher baten Versuchspersonen, kurze Hauptwörter zu betrachten, in denen ein Buchstabe rot gefärbt war. Nun erhielten die Teilnehmer unterschiedliche Aufträge: Mal sollten sie angeben, ob das jeweils gezeigte Wort den Buchstaben A enthielt - eine sprachliche Aufgabe also. Ein andermal wurden die Teilnehmer gefragt, ob der rote Buchstabe rechts oder links der Wortmitte stand - hier war die räumliche Wahrnehmung gefordert. Nicht der Augenschein zählt, sondern der Auftrag: Die Forscher beobachteten die erwartete Arbeitsteilung - mal war die rechte, mal die linke Hirnhälfte besonders aktiv. Mit Hilfe der Magnetresonanz-Tomographie, die misst, wie gut das Hirngewebe mit Sauerstoff versorgt wird, machten sie diejenigen Bereiche des Hirns sichtbar, die gerade intensiv arbeiteten. Dabei spürten die Neurologen einen weiteren aktiven Bereich im Stirnhirn auf, den so genannten 'anterior cingular cortex (ACC)'. Es zeigte sich, dass dieses Kontrollzentrum für Managementaufgaben zuständig ist und darüber entscheidet, welche Hirnhälfte die Arbeit erledigen muss. "Der linke Teil des ACC arbeitete immer intensiver mit der Sprach-Region der linken Hirnhälfte zusammen, während die Entscheidung zu Gunsten der Buchstabenerkennung fiel. Im anderen Fall nahm der Einfluss des rechten ACC auf den Scheitellappen der rechten Hirnhälfte zu", erklärt Teamkollege Klaas Stephan. Damit konnten die Forscher zum ersten Mal direkt verfolgen, wie die verschiedenen Regionen des Gehirns miteinander kommunizierten, während sie ein Problem beurteilten und die Zuständigkeit ermitteln. "Wir sehen auf diese Weise, wie sich die verschiedenen beteiligten Hirnregionen miteinander unterhalten, und wie sich das 'Gespräch' verändert, wenn die Aufgabe wechselt", erläutert Gereon Fink. Die Neurologen hoffen nun, dass ihre Erkenntnisse bei der Therapie von Menschen helfen können, deren Kontrollmechanismen etwa infolge eines Schlaganfalls gestört sind."
-
Penrose, R.: Schatten des Geistes : Wege zu einer neuen Physik des Bewußtseins (1995)
0.01
0.0064021577 = product of:
0.02560863 = sum of:
0.02560863 = weight(_text_:und in 4450) [ClassicSimilarity], result of:
0.02560863 = score(doc=4450,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.21206908 = fieldWeight in 4450, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=4450)
0.25 = coord(1/4)
- Abstract
- Computer haben merkwürdige Eigenschaften. Sie erledigen eine Menge komplexer Aufgaben schneller, geauer und zuverlässiger als der Mensch. Mit relativ simplen Fähigkeiten, die wir intuitiv einsetzen, haben sie jedoch zu kämpfen. Und bei Verstehen, Intelligenz und Bewußtsein versagen sie völlig. Der menschliche Geist läßt sich prinzipiell rechnerisch nicht angemessen simulieren, behauptet der Autor. Dennoch sind es physikalische Prozesse im Gehirn, die das Bewußtsein ausmachen. Er fordert in der Fortsetzung der Diskussion um 'Computerdenken' eine neue, eine nicht-rechnerische 'Physik des Bewußtseins' für die Beschreibung des Geistes, die eine Art Verallgemeinerung der Quantenmechanik sein könnte. Er entwirft schließlich ein eigenens Modell für das Gehirn, in dem die heute bekannten Vorgänge nur die Schatten eines tieferen Phänomens, des Geistes sind
-
Pfister, R.-D.: Ware oder öffentliches Gut? : Über den Charakter von Information; am Beispiel Internet (1994)
0.01
0.006272808 = product of:
0.025091233 = sum of:
0.025091233 = weight(_text_:und in 59) [ClassicSimilarity], result of:
0.025091233 = score(doc=59,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.20778441 = fieldWeight in 59, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=59)
0.25 = coord(1/4)
- Abstract
- Wie ist Fachinformation einzuschätzen? So richtig als Ware mit einem Markt, mit Produzenten, Anbietern, Händlern usw. Oder ist sie ein öffentliches Gut. Etwas was uns kostenlos zur Verfügung gestellt werden sollte? Vor 20 Jahren hätten sich wohl die meisten von uns letzterer Ansicht angeschlossen, obwohl schon damals nur eine bestimmte Informationssorte (fast) kostenlos in Universitätsbibliotheken, Fachzeitschriften, usw. zur Verfügung stand. Heute hat sich die Situation grundsätzlich gewandelt. Dies ist sicherlich Ausdruck der gestiegenen Bedeutung von Information, dem Mehr an Information, das benötigt wird, um zum Beispiel ein Unternehmen in unserer komplexer gewordenen Welt erfolgreich zu führen. Es ist natürlich auch Ausdruck der Tatsache, daß neue Informationsarten wesentlich kurzfristiger zur Verfügung gestellt werden - denken wir nur an den großen Bereich der Fakteninformation - und daß dies wesentlich höhere Kosten verursacht als die früheren 'Darreichungsformen'. Nichtsdestotrotz hält sich hartnäckig der Gedanke, ob nicht vielleicht Fachinformation doch etwas sei, was zumindest sehr billig zu haben sein sollte. Aufschub erhält dieseer Gedanke seit kurzem durch die riesigen Informationsmengen, die per Internet quasi kostenfrei zur Verfügung stehen. Genau auf diesem aktuellem Hintergrund widmet sich der folgende Beitrag der Frage nach dem Charakter von Information: 'Ware oder öffentliches Gut'
- Source
- Datenbanken in Theorie und Praxis. 1994, H.4, S.35-44
-
Singer, W.: Wissensquellen : Wie kommt das Wissen in den Kopf? (2000)
0.01
0.006272808 = product of:
0.025091233 = sum of:
0.025091233 = weight(_text_:und in 5213) [ClassicSimilarity], result of:
0.025091233 = score(doc=5213,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.20778441 = fieldWeight in 5213, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5213)
0.25 = coord(1/4)
- Abstract
- Es gibt drei Mechanismen, über die Wissen in das Gehirn gelangt. Es ist einmal das durch die Evolution in den Genen gespeicherte Wissen über die Welt, wie es im Phänotyp jedes neu ausgereiften Gehirns exprimiert ist. Zum Zweiten gibt es das während der frühen Ontogenese erworbene Erfahrungswissen, das sich in strukturellen Änderungen der Gehirnarchitektur manifestiert - die übrigens kaum von den genetisch bedingten zu unterscheiden sind. Drit ten s ist es das durch Lernen erworbene Wissen, das sich in funktionellen Änderungen bereits bestehender Verbindungen ausdrückt. Auch die lernbedingten Veränderungen führen natürlich zu strukturellen Veränderungen auf der molekularen Ebene, die allerdings nur mit hoch auflösenden Mikroskopen identifiziert werden können. In ihrer Gesamtheit bestimmen diese drei Wissensquellen die funktionelle Architektur des jeweiligen Gehirns und damit das Programm, nach dem das betrachtete Gehirn arbeitet
- Source
- Weltwissen - Wissenswelt: Das globale Netz von Text und Bild. Hrsg.: Christa Maar, u.a
-
Wojahn, J.: Konzentration globaler Medienmacht und das Recht auf Information (1999)
0.01
0.006272808 = product of:
0.025091233 = sum of:
0.025091233 = weight(_text_:und in 723) [ClassicSimilarity], result of:
0.025091233 = score(doc=723,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.20778441 = fieldWeight in 723, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=723)
0.25 = coord(1/4)
- Abstract
- Im Zeitalter der Globalisierung sind die Menschenrechte zunehmend Eingriffen durch transnationale Unternehmen ausgesettzt. Das gilt auch für die Informationsfreiheit. Wenn Medienkonzerne immer weiter fusionieren, kann dieser Freiheit Gefahr drohen, insbesondere durch einen Verlust an Informationsvielfalt. Daß es erste Tendenzen zu einer globalen Medienkonzentration gibt, wird im empirischen Teil der Arbeit festgestellt. Davon ausgehend wird untersucht, ob die internationalen Menschenrechtsinstrumente dem einzelnen ein Recht auf Information verleihen. Wie dieses Recht im entstehenden System der Globalisierung durchzusetzen wäre, wird anhand von völker-, wirtschafts- und medienrechtlichen Regelungsansätzen aufgezeigt. Im Ergebnis sind dabei vor allem die Staaten in die Pflicht zu nehmen: sie müssen zusammenarbeiten, um ihrer Rolle als Garanten der Menschenrechte gerecht zu werden
-
Chaitin, G.J.: Algorithmic information theory (1987)
0.01
0.006272808 = product of:
0.025091233 = sum of:
0.025091233 = weight(_text_:und in 4175) [ClassicSimilarity], result of:
0.025091233 = score(doc=4175,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.20778441 = fieldWeight in 4175, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4175)
0.25 = coord(1/4)
- BK
- 31.02 (Philosophie und Wissenschaftstheorie der Mathematik)
- Classification
- 31.02 (Philosophie und Wissenschaftstheorie der Mathematik)
-
Riethmüller, J.: ¬Der graue Schwan : Prolegomena zum Wissen der Wissensgesellschaft (2012)
0.01
0.006272808 = product of:
0.025091233 = sum of:
0.025091233 = weight(_text_:und in 4275) [ClassicSimilarity], result of:
0.025091233 = score(doc=4275,freq=4.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.20778441 = fieldWeight in 4275, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4275)
0.25 = coord(1/4)
- Abstract
- Die beliebte Diagnose der "Wissensgesellschaft" verdeckt, dass keineswegs geklärt scheint, von welchem Wissen hier die Rede ist. Vor der zeitdiagnostischen Analyse muss daher in epistemologischer Hinsicht eine kritische, transdisziplinär angelegte Begriffsarbeit stehen. Bleibt dies aus, prägen weiter zahllebige Mythen unser Wissen vom Wissen; der graue Schwan steht dann bildhaft für jenen eigenartigen Zwang, diesbezüglich Zentrales leichthin zu ignorieren: Weder besteht Wissen aus einem geheimnisvollen physikalischen Stoff Information, der beliebig zwischen unterschiedlich strukturierten Systemen hin- und her übertragen oder von diesen umstandslos gespeichert werden könnte, noch ist es sinnvoll als Gut, Rohstoff oder gar Ware zu begreifen. Wissen generiert den Erscheinungen der Welt kognitiv und kommunikativ ihre (stabile) Bedeutung.