-
Hammwöhner, R.: Qualitätsaspekte der Wikipedia (2007)
0.01
0.005540037 = product of:
0.022160148 = sum of:
0.022160148 = weight(_text_:und in 2326) [ClassicSimilarity], result of:
0.022160148 = score(doc=2326,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19590102 = fieldWeight in 2326, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=2326)
0.25 = coord(1/4)
- Source
- Wikis: Diskurse, Theorien und Anwendungen. Sonderausgabe von kommunikation@gesellschaft, Jg. 8. Online-Publikation. Hrsg.: C. Stegbauer u.a. [http://www.soz.uni-frankfurt.de/K.G/B3_2007_Hammwoehner.pdf]
-
Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008)
0.01
0.005540037 = product of:
0.022160148 = sum of:
0.022160148 = weight(_text_:und in 4567) [ClassicSimilarity], result of:
0.022160148 = score(doc=4567,freq=8.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19590102 = fieldWeight in 4567, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4567)
0.25 = coord(1/4)
- Abstract
- Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
- Imprint
- Konstanz : Fachbebreich Philosophie / Kunst- und Medienwissenschaft / Informatik
-
Hausser, R.: Grundlagen der Computerlinguistik : Mensch-Maschine-Kommunikation in natürlicher Sprache; mit 772 Übungen (2000)
0.01
0.005540037 = product of:
0.022160148 = sum of:
0.022160148 = weight(_text_:und in 5352) [ClassicSimilarity], result of:
0.022160148 = score(doc=5352,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19590102 = fieldWeight in 5352, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=5352)
0.25 = coord(1/4)
- Abstract
- Die zentrale Aufgabe einer zukunftsorientierten Computerlinguistik ist die Entwicklung kognitiver Maschinen, mit denen Menschen in ihrer jeweiligen Sprache frei reden können. Für die natürlichsprachliche Kommunikation wird nicht nur Sprachverarbeitung, sondern auch nichtsprachliche Wahrnehmung und Handlung benötigt. Deshalb ist der Inhalt dieses Lehrbuchs als Sprachtheorie für die Konstruktion sprechender Roboter organisiert.
-
Schrodt, R.: Tiefen und Untiefen im wissenschaftlichen Sprachgebrauch (2008)
0.01
0.005540037 = product of:
0.022160148 = sum of:
0.022160148 = weight(_text_:und in 140) [ClassicSimilarity], result of:
0.022160148 = score(doc=140,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19590102 = fieldWeight in 140, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=140)
0.25 = coord(1/4)
-
Röttgers, J.; dpa: ¬Der Kampf ums digitale Buch : Die deutschen Verlage reagieren auf Google - und arbeiten an einer Plattform fürs kostenlose Online-Lesen (2006)
0.01
0.005496585 = product of:
0.02198634 = sum of:
0.02198634 = weight(_text_:und in 6055) [ClassicSimilarity], result of:
0.02198634 = score(doc=6055,freq=14.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19436452 = fieldWeight in 6055, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=6055)
0.25 = coord(1/4)
- Content
- "Wer Kostproben von neuen Romanen oder ganze Bände online lesen und hören möchte, den lässt die Branche bald nicht mehr allein. Der Börsenverein des Deutschen Buchhandels will im Februar eine Plattform starten. Verlage und Autoren entscheiden dabei selbst, in welchem Umfang sie Inhalte kostenlos oder gegen Entgelt zur Verfügung stellen. Das Projekt "Volltextsuche Online" soll auch der Herausforderung durch Google begegnen: Die Internet-Suchmaschine stellt schon länger Bücher ins Netz. "Wir wollen aber nicht in Konkurrenz zu Google treten", sagt der Hauptgeschäftsführer des Börsenvereins, Alexander Skipis. Die Branche verhandle vielmehr mit Google derzeit über eine Kooperation: Inhalte der "Volltextsuche Online" sollen oben in den Ergebnislisten von Suchabfragen stehen. Derzeit wollen 70 Verlage beim OnlineProjekt mitmachen, 10000 Titel sind erfasst. Skipis will auch Zehntausende von rechtefreien Titeln online verfügbar machen. Die Macher hoffen, auch jene Verlage ins Boot zu kriegen, die schon jetzt im Internet Geschäftsmodelle erproben. Die geplan-. te Plattform werde besser wahrgenommen als verschiedene Angebote einzelner Verlage. "Wenn wir mit 10 000 Titeln nach einem Jahr herumdümpeln, haben wir das Thema vergeigt." Miteingebunden werden soll auch der Buchhandel. Begonnen hatte das Zeitalter der digitalisierten Bücher ;im März 2003 in der Bibliothek der kalifornischen Stanford-Universität. Mit einem raumfüllenden Roboter begann die renommierte Institution damals mit dem Scannen. Das mehrere 100 000 Dollar teure Gerät blättert automatisch, durch Bücher und Magazine und fotografiert jede Seite mit einer hochauflösenden Spezialka-mera. Zusammenklebendes Papier wird sorgsam mit einem sanften Luftstoß geteilt. Theoretisch kann ein Buch-Roboter gut tausend Seiten pro Stunde erfassen. Stanfords Bibliothekare bemerkten aber bald, dass sie ältere Schmöker nur mit, einer Rate von 100 bis 200 Seiten pro Stunde scannen können. 15 Monate später hatten sie gerade einmal 800 Bücher digitalisiert. Die Erfassung des 7,5 Millionen Titel umfassenden Bestands hätte so Jahrtausende gedauert. Ende 2004 bekam die Bibliothek dann Hilfe von Google. Der Suchmaschinenriese erklärte sich bereit, mehrere Millionen Titel zu digitalisieren - täglich bis zu 100000 Seiten. Stanfords Bibliothekar Michael Keller bezeichnete das als "riesigen Schritt vorwärts". Vorher habe man Digitalisierung als Liebhaberprojekt betrieben. "Die Zusammenarbeit mit Google macht daraus ein industrielles Unterfangen."
Google legt kräftig vor Knapp zwei Jahre später hat die Suchmaschine sieben Universitäten als Partner gewonnen und viele tausend Bücher mit einer eigens entwickelten Technik digitalisiert. Wie groß der eigene Datenbestand ist, verrät Google nicht. Hinweise auf den Fortschritt des Unterfangens bietet Googles Print-Plattform. Die Firma lässt Nutzer dort im Volltext digitalisierter Bücher suchen. Einige der Titel stammen von Verlagen selbst, der Rest ist das Ergebnis der Bibliotheks-Digitalisierung. Gebräuchliche Begriffe der englischen Sprache resultieren in Fundstellen auf knapp 80 Millionen Seiten. Das wären gut 300000 Werke mit je 250 Seiten. Weitere Indizien gibt die Analyse einer US-Fachzeitschrift für digitale Bibliotheken. Die Autoren des D-Lib-Magazin fanden heraus, dass Google auf dem besten Weg ist, einen Großteil der weltweit verfügbaren Bücher zu digitalisieren. So finden sich in den Katalogen der fünf anfänglichen Projekt-Partner bereits 33 Prozent aller Titel des weltweiten Bibliothekskatalogs Worldcat. Fremdsprachen-Sammlungen sorgen dafür, dass Googles Buch-Katalog trotz seiner amerikanischen Wurzeln vielsprachig ist. Nur die Hälfte ist in englischer Sprache. An zweiter Stelle stehen deutsche Werke mit zehn Prozent. Nun gab Google eine Kooperation mit der Universität Madrid bekannt, dielen Anteil der nicht-englischen Bücher steigern dürfte. Über Pläne für Deutschland will sich die Firma nicht äußern: "Wir sprechen mit zahlreichen Bibliotheken auf der ganzen Welt", sagt eine Sprecherin. Die Geheimnistuerei kommt nicht von ungefähr. Die Konkurrenz Yahoo und Microsoft hat sich zur Open-Content-Alliance zusammengeschlossen, um selbst Millionen von Büchern zu erfassen. Gegenwind gibt es auch von Rechteinhabern, die Klagen wegen Urheberrechtsverletzungen anstreben. Unumstritten ist dagegen Googles Projekt, Bücher mit abgelaufenem Urheberrechtsschutz als komplette Downloads anzubieten. Mit dabei: Goethes Faust - aus dem Buchbestand der Stanford-Universität."
-
Weber, A.: "HeiIFASTen" - Entschlacken mit Leistungsgewinn : Neue Möglichkeiten für Bibliothekskataloge durch den Einsatz von Suchmaschinentechnologie (2007)
0.01
0.005496585 = product of:
0.02198634 = sum of:
0.02198634 = weight(_text_:und in 401) [ClassicSimilarity], result of:
0.02198634 = score(doc=401,freq=14.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19436452 = fieldWeight in 401, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=401)
0.25 = coord(1/4)
- Content
- "Der Einsatz von Suchmaschinentechnologie in Bibliothekskatalogen hat bewiesen, dass durch optimierte Indexierungsverfahren Verbesserungen der Informationsversorgung für Bibliotheksbenutzer erreicht werden. Im Dezember 2006 wurde das lokale Bibliotheksportal "SISIS-InfoGuide" von OCLC PICA um eine auf FAST Technologie basierende Suchmaschine erweitert. Die Investition des Freistaates Bayern in eine Landeslizenz für den Einsatz von FAST in den Bayerischen Universitätsbibliotheken hat sich ausgezahlt. Nachfolgend werden einige der Vorteile kurz skizziert, die sich aus dieser Erweiterung ergeben haben. Am deutlichsten ist die Auswirkung dieser Technik bei den Antwortzeiten. Insbesondere die Suche nach häufig in den Bibliotheksdaten vorkommenden Begriffen, z.B. Deutschland oder Geschichte, werden selbst sehr große Treffermengen in Bruchteilen von Sekunden geliefert. Das Scheitern von Abfragen wegen erreichter Zeitlimits gehört damit der Vergangenheit an. Aus dieser Tatsache ergibt sich auch, dass Benutzer nicht mehr spezifisch suchen müssen, da nun auch große Treffermengen in kurzer Zeit präsentiert werden. Das alleine wäre kein Vorteil, wenn nicht auch Methoden zur Verfügung gestellt würden, mit diesen Treffermengen umzugehen. Auch hier liefert die Suchmaschinentechnologie adäquate Hilfsmittel, die so genannten "Drill Downs". Bestimmte, vordefinierte Felder werden beim Aufbau der Trefferlisten analysiert und die Feldinhalte nach Häufigkeit sortiert als Sucheinschränkung angeboten. Die Eingrenzung auf eine Sprache, einen Erscheinungszeitraum oder ein bestimmtes Schlagwort ist so mit einem einzigen Mausklick möglich. Die daraus neu entstehende Treffermenge wird wiederum dieser Analyse unterworfen. Mit wenigen Mausklicks gelangt der Benutzer so von einem allgemeinen Ergebnis zu einer überschaubaren Menge an Treffern Standardmäßig werden die Treffer nicht mehr nach dem Alphabet oder Erscheinungsjahren sortiert, sondern es wird aus dem Vorkommen der Suchmuster in den Elementen der Katalogaufnahme und dem Erscheinungsjahr eine Relevanz ermittelt. Wie bei Internetsuchmaschinen gewohnt, werden die Treffer, die der Suchanfrage am besten entsprechen, in der Trefferliste ganz oben präsentiert,. Weiterhin ermöglicht die FAST Technologie eine Ähnlichkeitssuche, die auf Dokumentvektoren aufbaut. Diese werden an Hand statistischer Verfahren für das zu indexierende Dokument errechnet. Die Ermittlung von Ähnlichkeiten wird auf die erstellte Treffermenge angewendet und erlaubt sowohl Einschränkungen als auch Ausweitungen der ermittelten Suchergebnisse.
Eine zusätzliche Unterstützung der Recherche bietet die auf Wörterbüchern basierende linguistische Komponente der Suchmaschine. Die Begriffe werden beim Indexieren der Daten lemmatisiert - also auf eine Grundform zurückgeführt. Bei der Eingabe der Suchanfrage werden dieselben linguistischen Methoden verwendet, um die eingegebenen Begriffe der Suchanfrage zu analysieren und ggf. auf die im Index enthaltene Form zu verändern. Dies führt zu Treffern auch wenn Suchbegriffe nicht exakt eingegeben werden und steigert so die Erfolgsquote. Mit Hilfe der Linguistik werden zusätzlich evtl. vorhandene Rechtschreibfehler korrigiert, oder ggf. alternative Begriffe vorgeschlagen. ("Meinten Sie?"). Der wesentliche Vorteil des Einsatzes der FAST Suchmaschine besteht aber darin, dass ein zusätzlicher Index zur Verfügung steht, der unabhängig von den internen Bibliotheksanwendungen ist. Die für die bibliotheksinternen Abläufe optimiert gespeicherten Daten können so vor der Indexierung durch die Suchmaschine verändert werden, ohne dass interne Arbeitsvorgänge davon betroffen wären. Auf diese Weise lassen sich viele, für den Benutzer nicht transparente, fachspezifische Daten aussondern oder transparenter gestalten. Das einfachste Beispiel dafür ist das Filtern von Sonderzeichen, z. B. im Erscheinungsjahr. Weiterhin können aus verschiedenen codiert gespeicherten Kategorien neue, mit sprechenden Bezeichnungen versehene Kategorien gebildet werden, z.B. für die Erscheinungsform eines Werkes. Die Bildung eines zusätzlichen Feldes "Fach" aus der in der Bibliothek verwendeten Klassifikation hat sich als effektiver Filter für die Selektion relevanter Treffer bei der Suche nach unspezifischen Suchbegriffen, wie z.B. Chaos, herausgestellt. Die Möglichkeit nach Schlagwortketten, also der Kombination von Schlagworten einzugrenzen, führt den Benutzer sehr einfach zu spezifischen Treffern und ist auch bei kleineren Treffermengen wirkungsvoll. Die Einbindung der FAST Suchmaschine in den lokalen Bibliothekskatalog bietet nicht nur eine wesentliche Verbesserung der Suchgeschwindigkeit, sondern sie eröffnet dem Benutzer durch die vielfältigen Analysemethoden der Treffer während der Anzeige auch ganz neue Wege im Umgang mit Treffermengen. Hinzu kommt, dass durch die geeignete Aufbereitung der Ausgangsdaten es nun auch möglich ist, die von der Bibliothek geleistete Sacherschließung als effektives Hilfsmittel für den Endanwender einzusetzen."
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.4, S.225
-
¬The information literacy cookbook : ingredients, recipes and tips for success (2007)
0.01
0.00547473 = product of:
0.02189892 = sum of:
0.02189892 = weight(_text_:und in 2100) [ClassicSimilarity], result of:
0.02189892 = score(doc=2100,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.1935917 = fieldWeight in 2100, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=2100)
0.25 = coord(1/4)
- BK
- 06.00 / Information und Dokumentation: Allgemeines
- Classification
- 06.00 / Information und Dokumentation: Allgemeines
- Footnote
- Rez. in: Mitt VÖB 61(2008) H.1, S.82-87 (M. Hütte): "Kochen liegt im Trend. Immer noch? Immer wieder. Johann Lafer, Tim Mälzer und Sarah Wiener beherrschen das Fernsehprogramm, ihre Bücher die Bestsellerlisten. Aber was hat Kochen mit der Vermittlung von lnformationskompetenz' zu tun? Der Koch buchstil des vorliegenden Werkes wurde von den Herausgeberinnen als Analogie gewählt. Kochbücher zeigen neue Wege auf, wie man traditionelle Gerichte aufpeppen oder Zutaten aus dem Vorratsschrank sinnvoll verarbeiten kann. Den Schritt-für-Schritt-Anweisungen in Kochbüchern können Anfänger folgen, genauso bieten sie aber auch Anregungen zu Eigenkreationen für den erfahrenen Koch. Entsprechend soll The information literacy cookbook als Anregung und Hilfe von Praktikern für Praktiker im BID-Bereich Verwendung finden. Der Sammelband richtet sich sowohl an erfahrene Vermittler von Informationskompetenz als auch an Neulinge auf dem Gebiet. Jedes Kapitel widmet sich dabei einer anderen Sparte des Bibliothekswesens. Die Köche, pardon Autoren, der einzelnen Beiträge sind innerhalb des englischen BID-Bereichs in öffentlichen Einrichtungen oder der Privatwirtschaft tätig und bringen praktische Erfahrungen auf dem Gebiet der Vermittlung von Informationskompetenz mit. ...
Der vorliegende Sammelband bietet einen aktuellen und umfassenden Überblick über die Aktivitäten bei der Vermittlung von Informationskompetenz in britischen Bibliotheken. Mit dem Titel wird die Erwartung erweckt, das Buch zeige Handlungsempfehlungen auf. Leider wird der praxisbezogene Ansatz nicht von allen Autoren gleichermaßen verfolgt, so dass einige Aufsätze eher zum spartenbezogenen Fortschrittsbericht geraten sind. Ein komplettes Kurs-Design wird in keinem der Kapitel geboten - dies ist aber auch nicht Anliegen des Buchs. Die Übertragbarkeit der Konzepte auf den deutschen Sprachraum ist begrenzt. Zu unterschiedlich sind die Rahmenbedingungen im Bibliothekswesen selbst, aber auch im Ausbildungssystem und den Förderprogrammen. Dennoch bietet das vorliegende Werk interessante Einblicke in die - gegenüber Österreich und Deutschland stark fortgeschrittene - Praxis der Vermittlung von Informationskompetenz im britischen Bibliothekswesen sowie einige nützliche Tipps und Hinweise für Gestaltung eigener Lernangebote. So ist The Information Literacy Cookbook für den deutschsprachigen Raum nur teilweise ein Kochbuch, i.S. einer Handlungsempfehlung für die Vermittlung von lnformationskompetenz, als vielmehr eine Studie über die britischen Essgewohnheiten. Aber auch auf diesem Sektor hat sich ja nicht zuletzt durch Jamie Oliver einiges getan, so dass hier diverse Anregungen geboten werden, die zum Ausprobieren einladen. Und bekanntermaßen kommt der Appetit ja beim Essen."
-
Theiselmann, R.: Geistiges Eigentum in der Informationsgesellschaft : rechtliche Implikationen der digitalen Werkverwertung (2004)
0.01
0.00547473 = product of:
0.02189892 = sum of:
0.02189892 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
0.02189892 = score(doc=4217,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.1935917 = fieldWeight in 4217, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=4217)
0.25 = coord(1/4)
- Footnote
- Rez. in: ZfBB 52(2005) H.5, S.293-294 (E.W. Steinhauer): "Bibliotheken sammeln und erschließen elektronische Dokumente. Vor allem Hochschulbibliotheken bieten darüber hinaus auf ihren Servern digitale Publikationen an. Sie agieren als »elektronische Verlage«. In der Praxis ergeben sich dabei viele Rechtsfragen, die entmutigend komplex sind. Nicht nur Bibliothekare, auch Autoren sind unsicher, welchen Schutz die auf dem Server abgelegten Werke im Internet genießen. Hier verspricht die von Rüdiger Theiselmann 2003 eingereichte Kölner Dissertation Orientierung. Vorweg sei gleich gesagt: Theiselmanns Arbeit ist nicht für Bibliothekare und Betreiber Digitaler Bibliotheken geschrieben. Im Vordergrund stehen die ökonomisch bedeutenden Verwertungen im Bereich der Unterhaltungsmedien (Musik und Film).Verallgemeinert man aber diese Ausführungen, so bieten sie auch Bibliothekaren interessante Informationen. Theiselmann hat seine Arbeit in sechs Kapitel gegliedert. Im ersten Kapitel stellt er die Werkarten des digitalen Zeitalters vor und ordnet sie den gesetzlichen Typen geistiger Schöpfung zu. Besonders interessant sind die Ausführungen zur urheberrechtlichen Einordnung von Homepages. Hier können nicht nur einzelne Seiten als Werke geschützt sein, sondern auch die Website als Internetauftritt insgesamt mit ihren Verweisungen. Sie ist bei entsprechender Gestaltungshöhe ein Datenbankwerk nach § 411 UrhG (S.33-35). Konsequenterweise kann damit eine Seitenstruktur als solche urheberrechtlichen Schutz erlangen. Das sollte zur Vorsicht mahnen, den Aufbau von Bibliothekshomepages einfach von anderen Einrichtungen ohne deren Zustimmung zu übernehmen. Im zweiten Kapitel behandelt Theiselmann die Verwertungsrechte digitaler Werke. Er differenziert zwischen einer Offline-Nutzung,alsoder Digitalisierung, und einer Online-Nutzung, nämlich der Verbreitung im Internet. Bei der OfflineNutzung gilt: Digitalisierung ist eine Vervielfältigung im Sinn von § 16 UrhG. Das leuchtet ein. Komplizierter ist die Lage bei der Online-Verwertung. Theiselmann erörtert, ob der Urheber, wenn er Inhalte ins Netz stellt, nicht allen Lesern konkludent ein Nutzungsrecht einräumt bzw. auf seine Nutzungsrechte verzichtet. Das wird verneint (S.41-45). Könnte die Nutzung durch den Erschöpfungsgrundsatz nach §17 II UrhG erleichtert sein? Mangels einer Verkörperung lehnt Theiselmann im dritten Kapitel auch dies ab (S.75). Das überzeugt. Zweifelhaft ist jedoch die Ablehnung einer konkludenten Rechteeinräumung. Die meisten Urheber stellen ihre Werke ins Netz, damit sie genutzt werden. Man kann es sogar als widersprüchliches Verhalten werten, wenn ein Urheber bei frei zugänglichen Webseiten keine den technischen Möglichkeiten des Mediums adäquaten Nutzungsrechte einräumt. Das kann hier nicht vertieft werden. Deutlich wird aber, dass eine vernünftig betriebene Digitale Bibliothek die vorgehaltenen Dokumente mit eindeutigen Lizenzen versehen sollte. Das schafft Klarheit.
Folgt man nun Theiselmanns These, dass die User im Netz keine konkludenten Lizenzen haben und auch keine Erschöpfung eingetreten ist, ist es konsequent, die Nutzung der Netzinhalte allein an den gesetzlichen Schranken des Urheberrechts zu messen. Davon handelt das vierte Kapitel. Den Betrieb einer Digitalen Bibliothek wird man als fite-sharing einordnen können. Es liegt eine öffentliche Zugänglichmachung nach § 1511 Nr. 2 i.V.m. § 19a UrhG vor (S. 52). Da der Urheber dem Einstellen seines Werkes in die Digitale Bibliothek zugestimmt hat, gibt es hier keine Probleme. Der Leser der elektronischen Publikation aber nimmt Vervielfältigungshandlungen im Sinn von § 16 I UrhG vor (S. 53). Ob er das darf, richtet sich mangels Lizenz und Erschöpfung nach den Schrankenregelungen in §§ 44a ff. UrhG. Da man davon ausgehen kann, dass die Werke in einer Digitalen Bibliothek legal eingestellt worden sind, wird man entgegen derfür Musiktauschbörsen im Internet von Theiselmann geäußerten Ansicht (S. 95f.) eine Anwendbarkeit von § 53 UrhG bejahen können. Eine Kopie ist zulässig. Allerdings zeigt auch diese Diskussion, wie wichtig es ist, klare Lizenzen für eine Digitale Bibliothek zu formulieren. Im fünften Kapitel wird die Vergütungspflicht für Geräte, die den Zugang zu digitalen Dokumenten eröffnen, erörtert und weitgehend bejaht. Auch der Internetzugang als solcher soll vergütungspflichtig sein (S. 113l. Das kann man zur Kenntnis nehmen. Entscheidend ist die Praxis der Verwertungsgesellschaften. Die weitere Entwicklung bleibt abzuwarten.
Die in der Praxis sehr unsichere Frage nach dem anwendbaren Recht bei der Online-Nutzung wird im sechsten Kapitel dargestellt. Nach Theiselmann soll es entgegen anderer Ansichten nicht auf den Ort der Einspeisung bzw. des Server-Standortes ankommen, sondern bei nachträglich digitalisierten Printprodukten auf das Recht des Landes, in dem das Werk erstmals gedruckt erschienen ist (S.133f). Für Bibliotheken bedeutet dies, dass bei der Digitalisierung von Aufsätzen der eigenen Hochschullehrer aus amerikanischen Zeitschriften-ein nicht seltener Fall! - nicht deutsches, sondern amerikanisches Recht anzuwenden wäre. Bei reinen Online-Werken ist die Rechtslage noch schwieriger. Die Arbeit endet mit einer Forderung nach einem weltweiten Cyberlaw (S. 139f.). Den bibliothekarischen Leser lässt das alles etwas ratlos zurück. Vor allem die Frage des anwendbaren Rechts bei der Digitalisierung widerspricht der gängigen Praxis in den Bibliotheken. Hier wird wegen der regelmäßigen Ausrichtung auf Nutzer im Inland meist deutsches Recht zugrunde gelegt. Alles andere wäre in der Praxis nicht zu leisten. Und immerhin gibt es gewichtige Stimmen in der Literatur, die dieses Vorgehen decken (vgl. Bröcker/Czychowski/Schäfer, Praxishandbuch Geistiges Eigentum im Internet, München 2003, S.92-94). Insgesamt ist Theiselmanns Arbeit sehr informativ. Sie ist nicht bloß eine wissenschaftliche Monografie, sondern über weite Strecken eine gut lesbare Einführung in das schwierigeThema des Urheberrechts im Zeitalter des Internet. Die Formulierungen sind klar und verständlich. Reichlich finden sich Argumentationshilfen, um eine bestimmte Rechtspraxis in der Bibliothek zu begründen. Kritisch ist allerdings die magere Literaturauswertung zu sehen: Es gibt immer nur einen Beleg pro Zitat. Der Leser kann nicht erkennen, ob es sich bei den angeführten Meinungen um eine herrschende Ansicht oder eine vereinzelte Minderheitenposition handelt."
-
Georgy, U.: ¬Der Wert von Information : Thesen zum Thema (2002)
0.01
0.005419706 = product of:
0.021678824 = sum of:
0.021678824 = weight(_text_:und in 1636) [ClassicSimilarity], result of:
0.021678824 = score(doc=1636,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19164601 = fieldWeight in 1636, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=1636)
0.25 = coord(1/4)
- Content
- "Möchte man den Wert von Information bestimmen, so ist es zunächst notwendig, sich über die Eigenschaften von Information Gedanken zu machen, die im folgenden in Auszügen skizziert sind: - (Digitale) Information ist eine Absatzleistung, die (fast) ausschließlich aus Dienstleistung besteht. Hierbei sei besonders darauf hingewiesen, daß Informationsdienstleistungen nicht ohne weiteres mit anderen Dienstleistungen vergleichbar sind. - Information verbleibt nach Weitergabe an einen Kunden oder Auftraggeber weiterhin beim Hersteller bzw. Dienstleister. Darin unterscheidet sich diese Dienstleistung ganz wesentlich von anderen, da die Mehrzahl von Dienstleistungen nicht ihren Besitzer wechseln kann. Bei vielen anderen Dienstleistungen, z. B. der Steuerberatung, können bei der Erstellung Erfahrungen und auch Wissen (an)gesammelt werden, die bei weiteren Mandanten wieder eingesetzt werden können, doch die individuelle Dienstleistung geht alleine an den Mandanten und müßte bei identischer Anforderung neu erstellt werden. Daraus resultiert unmittelbar eine weitere Eigenschaft: - Information kann in identischer Weise mehrfach weitergegeben bzw. verkauft werden. Hier weist Information eher einen Produkt- als Dienstleistungscharakter auf. - Information ist kein verderbliches Gut. Es schadet der Information nicht, wenn sie nicht konsumiert wird. Ebenfalls ist in vielen Bereichen das Alter der Information kein Kriterium für den Wert der Information. So sind im Patentsektor vielfach 20 Jahre alte Informationen ebenso wichtig wie Publikationen vom Vortag. - Information kann bevorratet werden, nicht jedoch die individuelle Beschaffung sowie die Erbringung der Informationsdienstleistung als solche. Damit nimmt Information wiederum eine Zwitterstellung zwischen Produkt und Dienstleistung ein. - Es ist nicht vorhersehbar, ob die gewünschte Information verfügbar ist. Sofern die gewünschte Informationsquelle dem Dienstleister oder Kunden nicht bereits bekannt ist, kann gegenüber dem Kunden keine zuverlässige Aussage darüber gemacht werden, ob die Information jemals erstellt worden ist oder ob sie sich aus anderen Informationsinhalten generieren läßt. - Es ist nicht sicher, ob die gewünschte Information beschaffbar ist. Es ist möglich, daß der Dienstleister auf die notwendigen Quellen keinen Zugriff hat oder daß sich innerhalb der durch den Kunden vorgegebenen Frist der Zugriff auf die Quellen nicht realisieren läßt. - Information kann unauffindbar sein, obwohl sie generell verfügbar ist. Zum einen können die gleichen Gründe wie zuvor genannt für die Nichtauffindbarkeit verantwortlich sein, es kann aber auch andere Gründe geben, die beispielsweise in der Qualität der Informationserfassung oder im Retrieval zu suchen sind. - Digitale Information kann in kürzester Zeit in die ganze Welt versandt werden. War früher der Informationsversand noch ein geschwindigkeitsbestimmender Schritt, so verlagert sich dieser zunehmend auf die Informationsbeschaffung. - Informationen können helfen, andere Ressourcen einzusparen oder optimiert einzusetzen und somit zur Gewinnsteigerung beitragen. Viele Produkte haben ohne Informationen keinen Wert, z. B. ein technisches Gerät ohne Bedienungsanleitung. Der Wert des Produktes ergibt sich hier erst durch die unmittelbare Kombination von Produkt und Information. Zurückkommend auf den Wert von Information bleibt festzustellen, daß der Wert von Information für jeden einzelnen eine individuelle Ausprägung aufweisen kann, d. h., daß der Wert von der Wertschätzung der Abnehmer abhängt. Zudem beinhaltet der Wert von Information zusätzlich eine zeitliche Dimension, denn der Wert kann vom Zeitpunkt abhängen, zu dem die Information erstellt, recherchiert/ermittelt, geliefert oder konsumiert wird.
-
Ehlers, U.-D.; Becker, P.: "Didaktik!" : Interview (2005)
0.01
0.005419706 = product of:
0.021678824 = sum of:
0.021678824 = weight(_text_:und in 3223) [ClassicSimilarity], result of:
0.021678824 = score(doc=3223,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19164601 = fieldWeight in 3223, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=3223)
0.25 = coord(1/4)
- Content
- "FR: Sie plädieren dafür, die Qualität für E-Learning aus Sicht des Lernenden zu beurteilen. Wie soll das gehen? Ulf-Daniel Ehlers: Wir haben rund 2000 Personen nach ihren Erfahrungen mit E-Learning befragt. Anhand der Antworten wurden verschiedene Bereiche herausgearbeitet, die von entscheidender Bedeutung dafür sind, ob E-Learning erfolgreich ist oder nicht. Was macht den Erfolg aus? Wichtig ist die Betreuung durch einen Tutor. Allerdings geht es hier nicht einfach nur darum, ob eine Betreuung angeboten wird oder nicht. Wir empfehlen, auch danach zu fragen, wie ein Kursteilnehmer sie sich wünscht, ob er sie etwa als Hilfe lediglich bei Fragen zum Stoff oder ob er eine Art Coaching will. Man muss den Lernenden genau das anbietet, was sie brauchen. Dann erhöht man die Chancen für den Lernerfolg. Wichtig ist aber auch die Art der Zusammenarbeit im Kurs. Welche weiteren Erfolgsfaktoren gibt es? Die Technik muss natürlich funktionieren und leicht zu bedienen sein. Darüber hinaus sind die Wünsche sehr individuell: Mancher möchte seinen eigenen Lernstand abspeichern können. Für einen anderen Nutzer ist das wiederum belanglos, weil er etwas anderes höher schätzt. Man darf sich an diesem Punkt aber nicht dem Irrtum hingeben, dass, nachdem zum Beispiel an der Software einer Lernplattform etwas verbessert worden ist, die Lernenden automatisch positiver über die Qualität des E-Learnings urteilten: Viel wichtiger für das Urteil der Kursteilnehmer ist die gute Didaktik. Das Primat der Didaktik ist entscheidend für den Erfolg. Was muss noch geschehen, damit E-Learning funktioniert? Wichtig ist die Gestaltung des Kurses. Auch hier sollte man die Lernenden und ihre Erwartungen einbeziehen. Genauso muss es transparente Informationen geben. Schließlich: Ein Anbieter sollte nachfragen, wie sich die Teilnehmer die Präsenzveranstaltungen wünschen, ob sie sich davon eine Kommunikation nur über den Lernstoff oder eher ein Beisammensein mit viel sozialem Austausch erwarten. Indem man diese individuellen Präferenzen beim Lernenden beachtet, verbessert man die Chancen auf einen Erfolg beim E-Leaming. Kann man nicht einfach sagen: Beim Lernen ist das gut, was der Konsument gut findet? Das funktioniert zwar bei den meisten Waren und Dienstleistungen. Bildung aber ist dafür zu komplex. Zum Beispiel: Wer ist bei einer Weiterbildung der Konsument - die Firma, die den Kurs bezahlt, oder derjenige, der ihn besucht? Wen also müsste man nach seiner Einschätzung befragen? Außerdem: Ein Erfolg in der Weiterbildung stellt sich aus Sicht des Unternehmens erst mit dem Wissenstransfer ein; der Transfer aber findet erst nach dem Seminar statt, also außerhalb der Bildungsmaßnahme. Wie soll man hier Qualität ermitteln? Noch eins: Es reicht nicht aus, einfach nur einen Teilnehmer zu befragen, was er von einem Kurs hält. Dabei kann man nämlich sein blaues Wunder erleben: Die Ergebnisse können sehr unterschiedlich sein - je nachdem, ob man den Lernenden vor oder nach der Prüfung fragt. Wie beurteilen Sie dennoch die Qualität aus der Sicht der Lernenden? Wir fragen bei den Lernenden nicht einfach ein Urteil über einen Kurs ab. Vielmehr empfehlen wir, schon in der Vorbereitung die Teilnehmer zu befragen, wie diese es am liebsten hätten. Wenn man das umsetzt, werden die Chancen auf einen Lernerfolg erheblich verbessert. Bisher hingegen hieß es immer: Wozu soll ich meine Schüler fragen, wie sie sich das Lernen wünschen? Die wissen das doch gar nicht. Wir sagen: die wissen das sehr wohl. Wie wollen Sie ihre Konzepte in die Praxis umsetzen? Wir sind unter anderem dabei, einen europäischen Verband für Qualität im E-Learning und das Gütesiegel E-Learning zu gründen. Damit möchten wir auf einer breiten Basis Lernende informieren und Anbieter beraten."
-
Röttgers, J.: Suchen statt sortieren : Google erfindet herkömmliche Mailsoftware für das Web neu, und die Konkurrenz wird nervös- Gmail im Praxistest (2004)
0.01
0.005419706 = product of:
0.021678824 = sum of:
0.021678824 = weight(_text_:und in 393) [ClassicSimilarity], result of:
0.021678824 = score(doc=393,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.19164601 = fieldWeight in 393, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=393)
0.25 = coord(1/4)
- Content
- "Überquellende E-Mail-Postfächer dürften bald der Vergangenheit angehören. Nicht weil die Zahl der eingehenden Nachrichten sinkt - der Speicherplatz wird größer. So stellt der Portal-Anbieter Yahoo seinen Nutzern 100 Megabyte zur Verfügung, bislang waren es knapp bemessene sechs Megabyte. Kunden des US-Internetzugangs bekommen sogar ganze zwei Gigabyte - ein derart großzügiges Angebot ist einzigartig. Die deutliche Aufstockung kommt nicht überraschend. Yahoo reagiert auf den neuen Gmail-Dienst von Google mit einem satten Tausend-Megabyte-Speicher. Das Projekt steckt zwar noch in der Testphase; Interessierte können nur mit persönlichen Einladungen teilnehmen. Doch schon jetzt befürchten Webmail-Anbieter, die Firma Google könnte mit Gmail ähnlich dominant werden wie mit ihrer Suchmaschine. - Yahoo und Web.de ziehen nach Wie Yahoo reagieren andere Anbieter vorsorglich mit Speicher-Geschenken. So bestätigt die deutsche Firma Web.de auf Anfrage, den Nutzern ihres kostenlosen FreemailDienstes ebenfalls bald mehr Platz für ihre Post zur Verfügung zu stellen. Für Firmen wie Web.de, GMX oder auch Lycos ist ein solcher Schritt nicht ohne Risiko. Reichlich Platz gab es dort bisher nur für zahlende Kunden. Dabei dient der Extra-Speicher als eine Art Köder, um den Nutzer für weitere Bezahlofferten zu begeistern. Wer erst einmal fünf Euro pro Monat für den Mail-Zugang ausgibt, wird eher auf die kostenpflichtigen DSL-, SMS- oder Telefondienste des jeweiligen Anbieters zugreifen, so die Hoffnung. Google dagegen setzt auf ein Geschäftsmodell, dass ganz auf Werbung aufbaut. Gmail-Kunden bekommen neben ihren E-Mails kontext-abhängige Textanzeigen eingeblendet, wie sie auf Google-Suchseiten erscheinen. Um so viele Anzeigen wie möglich einblenden zu können, setzt Google komplett auf einen Web-basierten Zugriff. Anbieter wie GMX oder Web.de erlauben ihren Kunden dagegen, Post auch mit Software wie Outlook oder Apple Mail auf den eigenen Computer zu übertragen. Gmail versucht dagegen, die Funktionen eines E-Mail-Programms im Web neu zu erfinden. Dazu gehören etwa Tastaturkürzel zur schnellen Bedienung. Die Oberfläche selbst ist Google-typisch schlicht und funktionell. Gmail verzichtet zudem fast vollkommen auf Sortierfunktionen. Während andere Anbieter auf Filter und Ordner setzen, um den Überblick zu erleichtern, wirft Gmail alle Nachrichten in ein einziges Fach. Dort lassen sich bestimmte Briefe mit Google-Suchtechnik aufspüren - was selbst bei Tausenden Nachrichten nur Sekundenbruchteile dauert. Nicht weit verbreitet ist bislang das Prinzip der Konversationen: E-Mails, die sich aufeinander beziehen, stellt Google gemeinsam dar. Reagiert jemand auf eine Nachricht, befindet sich die Antwort immer unter dem Original. Längere Briefwechsel bleiben übersichtlich, weil gelesene Beiträge automatisch ausgeblendet werden. Am meisten Schlagzeilen macht Gmail freilich mit seinen Werbeeinblendungen. Um die Anzeigen zielgruppengerecht auszuliefern, durchsucht Google die Mails nach Stichworten. Schwärmt ein Freund etwa detailliert über seinen neuen Computer, bekommen Gmail-Nutzer ein paar Anzeigen für ähnliche Modelle eingeblendet. Datenschützer sehen darin empfindlichen Eingriff in die Privatsphäre. Eine kalifornische Senatorin entwickelte sogar ein Gesetz, dass Googles Rechte im Umgang mit den Daten seiner Nutzer einschränken soll. Der kalifornische Senat hat schon zugestimmt, nun ist das Parlament des Bundesstaats am Zuge. Die in San Francisco ansässige Netz-Bürgerrechtsorganisation EFF kritisiert das Gesetz jedoch als un angebracht. Sprecherin Cindy Cohn sagt: "Das Problem sind nicht Google oder andere E-Mail-Anbieter, sondern die unvollständigen und widersprüchlichen DatenschutzGesetze der USA." Statt allein Google in die Pflicht zu nehmen, sollten die Rechte der Nutzer grundsätzlich aufgewertet werden - auch gegenüber Daten sammelnden staatlichen Stellen."
-
Knowledge organization and the global information society : Proceedings of the 8th International ISKO Conference 13-16 July 2004, London, UK (2004)
0.01
0.0053641177 = product of:
0.02145647 = sum of:
0.02145647 = weight(_text_:und in 3356) [ClassicSimilarity], result of:
0.02145647 = score(doc=3356,freq=30.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.18968035 = fieldWeight in 3356, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=3356)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt. VÖB 58(2005) H.1, S.78-81 (O. Oberhauser): "Die 1989 gegründete Internationale Gesellschaft für Wissensorganisation (ISKO) ist eine der wenigen Vereinigungen, deren Interessensschwerpunkt ganz auf wissenschaftliche und praktische Fragen der inhaltlichen Erschliessung und des sachlichen Informationszugangs ausgerichtet ist. Die deutschsprachige Sektion der ISKO hat ihren Sitz in Bonn; die Gesellschaft ist jedoch hierzulande nicht ausreichend bekannt und hat bislang nurwenige Mitglieder aus Österreich. Neben der nunmehr bereits seit über dreissig Jahren erscheinenden Fachzeitschrift Knowledge Organization (bis 1993 International Classification) publiziert die ISKO mehrere Buchserien, die früher im Frankfurter Indeks-Verlag erschienen und heute - wie auch die Zeitschrift - in Würzburg bei Ergon verlegt werden. Unter diesen nehmen die Tagungsbände der internationalen ISKO-Konferenzen, die seit 1990 alle zwei Jahre (an wechselnden Orten) abgehalten werden, eine bedeutende Stellung ein. Nun liegen die Proceedings der im Juli des vergangenen Jahres in London veranstalteten achten Konferenz vor, editiert in einheitlichem Layout, an dem mit Ausnahme der relativ kleinen Schrift, einem mitunter miss glückten Randausgleich bei den Titelüberschriften, unschönen (da fehlenden) Abständen bei den Überschriften von Subkapiteln sowie den üblichen vermeidbaren Tippfehlern (z.B. "trieval" anstelle von "retrieval" im Inhaltsverzeichnis, p. 9) wenig auszusetzen ist. Der trotz des kleinen Fonts stattlich wirkende Band versammelt immerhin 55 Vorträge, die, offenbar der Organisation der Tagung entsprechend, in 17 Abschnitte gegliedert sind. Die letzteren sind allerdings nur aus dem Inhaltsverzeichnis ersichtlich und entbehren jeden Kommentars, der sie auch inhaltlich hätte näher charakterisieren können. Die Herkunft der Autoren der Vorträge - darunter einige grosse und bekannte Namen - spiegelt die Internationalität der Vereinigung wider. Der deutsche Sprachraum ist allerdings nur durch einen einzigen Beitrag vertreten (H. Peter Ohly vom IZ Sozialwissenschaften, Bonn, über die Erschliessung einer Datenbank für Web-Ressourcen); bibliothekarische Autoren aus dem Raum "D-A-CH" sucht man vergebens. Die meisten Vorträge sind relativ kurz und bündig gehalten; die durchschnittliche Länge beträgt etwa vier bis sechs Seiten.
Das Rahmenthema der Tagung kam aufgrund des vor und nach der ISKO-Konferenz abgehaltenen "UN World Summit an an Information Society" zustande. Im Titel des Buches ist die "globale Wissensgesellschaft" freilich eher irreführend, da keiner der darin abgedruckten Beiträge zentral davon handelt. Der eine der beiden Vorträge, die den Begriff selbst im Titel anführen, beschäftigt sich mit der Konstruktion einer Taxonomie für "cultural literacy" (O'Keefe), der andere mit sogenannten "naiven Klassifikationssystemen" (Beghtol), d.h. solchen, die im Gegensatz zu "professionellen" Systemen von Personen ohne spezifisches Interesse an klassifikatorischen Fragen entwickelt wurden. Beiträge mit "multi-kulti"-Charakter behandeln etwa Fragen wie - kulturübergreifende Arbeit, etwa beim EU-Filmarchiv-Projekt Collate (Albrechtsen et al.) oder einem Projekt zur Maori-Kultur (Liew); - Mehrsprachigkeit bzw. Übersetzung, z.B. der koreanischen Dezimalklassifikation (Kwasnik & Chun), eines auf der Sears ListofSubject Headings basierenden slowenischen Schlagwortvokabulars (Zalokar), einer spanisch-englischen Schlagwortliste für Gesundheitsfragen (Rosemblat et al.); - universelle Klassifikationssysteme wie die Dewey-Dezimalklassifikation (Joan Mitchell über die DDC 22, sowie zwei weitere Beiträge) und die Internationale Dezimalklassifikation (la McIlwaine über Geographika, Nancy Williamson über Alternativ- und Komplementärmedizin in der UDC). Unter den 55 Beiträgen finden sich folgende - aus der Sicht des Rezensenten - besonders interessante thematische "Cluster": - OPAC-orientierte Beiträge, etwa über die Anforderungen bei derAutomatisierung analytisch-synthetischer Klassifikationssysteme (Slavic & Cordeiro) sowie Beiträge zu Benutzerforschung und -verhalten (Lee & Clyde; Miller); - Erschliessung und Retrieval von visuellen bzw. multimedialen Ressourcen, insbesondere mit Ausrichtung auf Thesauri (Hudin; Garcia Jimenez & De Valle Gastaminza; Rafferty & Hidderley); - Thesaurus-Standards (Dextre Clark et al.), Thesauri und Endbenutzer (Shiri & Revie); - Automatisches Klassifizieren (Vizine-Goetz & Beall mit Bezug auf die DDC; Na et al. über methodische Ansätze bei der Klassifizierung von Produktbesprechungen nach positiven bzw. negativen Gefühlsäusserungen); - Beiträge über (hierzulande) weniger bekannte Systeme wie Facettenklassifikation einschliesslich der Bliss-Klassifikation sowie der Umsetzung der Ideen von Ranganathan durch E.J. Coates (vier Vorträge), die Sachs-Klassifikation (Sachs & Smiraglia) sowie M. S. van der Walts Schema zur Klassifizierung elektronischer Dokumente in Klein- und Mittelbetrieben. Auch die übrigen Beiträge sind mehrheitlich interessant geschrieben und zeugen vom fachlichen Qualitätsstandard der ISKO-Konferenzen. Der Band kann daher bibliothekarischen bzw. informationswissenschaftlichen Ausbildungseinrichtungen sowie Bibliotheken mit Sammelinteresse für Literatur zu Klassifikationsfragen ausdrücklich empfohlen werden. Ausserdem darf der nächsten (= neunten) internationalen ISKO-Konferenz, die 2006 in Wien abgehalten werden soll, mit Interesse entgegengesehen werden.
-
Jäger, K.: Seele gesucht (2001)
0.01
0.0051937844 = product of:
0.020775137 = sum of:
0.020775137 = weight(_text_:und in 1895) [ClassicSimilarity], result of:
0.020775137 = score(doc=1895,freq=18.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.1836572 = fieldWeight in 1895, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=1895)
0.25 = coord(1/4)
- Content
- "Wer angestrengt nachdenkt, zermartert sich das Hirn, heißt es. Das Gehirn produziert aber nicht nur die Gedanken, sondern auch denjenigen, der diese Gedanken denkt: mich. Davon geht jedenfalls die Neurophilosophie aus. Dieser jungen philosophischen Richtung zufolge produziert das Gehirn seine Seele, also das IchBewusstsein im Menschen. Ihr naturwissenschaftliches Pendant, die Neurobiologie, ist auf dem besten Wege dazu, die komplizierten Vorgänge, die die Seele hervorbringen, an echten Gehirnen experimentell nachzuweisen. Skeptiker werfen den Hirnforschern jedoch vor, fälschlicherweise von chemischen Hirnprozessen auf das Bewusstsein zu schließen. Der Neurophilosoph Thomas Metzinger, Professor für theoretische Philosophie an der Universität Mainz, charakterisiert das erlebte Ich-Gefühl als ein "Resultat von Informationsverarbeitungsvorgängen im zentralen Nervensystem" Diese Vorgänge erschaffen das Ich quasi als virtuelles Organ. Eine zentrale Eigenschaft des Ich ist es, nicht zu bemerken, dass das Gehirn es produziert. Es verleugnet seinen eigenen Hersteller konsequent. Deshalb hat das Ich den Eindruck, die Welt um sich herum direkt mit seinen Sinnesorganen wahrzunehmen und seine eigenen Gedanken zu produzieren. Es hält sich für den großen Steuermann des Körpers, für die oberste Kontrollinstanz von Denken, Planen und Handeln. Neurobiologen haben herausgefunden, dass nicht bewusstseinsfähige Hirnareale wie die Basalkerne und der Thalamus das Ich-Bewusstsein steuern. Aus ihnen kommen die Signale dafür, dass wir beispielsweise willentlich den Arm heben.,Professor Gerhard Roth, Neurobiologe am Hirnforschungszentrum der Universität Bremen, ist es gelungen, experimentell nachzuweisen, dass die willkürlichen Handlungen auf "Einflüsterungen des Unbewussten" zurückgehen. "Der Willensakt tritt auf, nachdem das Gehirn bereits entschieden hat, welche Bewegungen es ausführen wird", so der Hirnforscher. Dies ist das Ergebnis einer Reihe von Experimenten, bei denen die Testperson möglichst schnell einen linken oder rechten Knopf drücken musste, je nachdem, welches Hinweiszeichen leuchtete. Bildgebende Messverfahren machten Hirnaktivität sichtbar. Diejenigen Hirnareale, die unbewüsste Handlungen produzieren, waren immer einen Tick vor denen aktiv, die das Bewusstsein herstellen. Zuständig für die Bewusstseinsproduktion ist die Hirnrinde. Sie sieht aus wie das Innere einer Walnuss und liegt auf den anderen Hirnteilen wie eine Perücke auf dem Kopf. Das Ich-Gefühl kommt aus dem vordersten Teil der Hirnrinde, der präfrontalen Cortex. Dieses Ich-Zentrum ist beim Kleinkind im Alter von etwa drei Jahren ausgereift. Erst dann, so Roth, "lässt das menschliche Kind seine nicht menschlichen Primatengenossen hinter sich".
Der Säugling hingegen hat noch kein Ich-Bewusstsein und wird wie die Affenbabys von seinen Wahrnehmungen, Emotionen und automatischen Bewegungsmustern regiert. Bewusstsein entsteht, indem unterschiedliche Hirnareale etwa 40-mal pro Sekunde ihre Aktivitäten in die Hirnrinde projizieren. Das Ich-Zentrum bündelt die Einzeleindrücke zu einem einheitlichen Gesamtbild, das wir als Ich-Erlebnis wahrnehmen. Meistens haben wir nur ein Ich. Aber unter unaushaltbaren Lebensbedingungen, oft in Verbindung mit sexuellem Missbrauch, versucht das Gehirn, den Leidensdruck mit einem Trick zu lindern. Anstelle eines Ichs bildet es mehrere iche in seinem Körper aus, auf die es die Last verteilt. Diese Ich-Störung fasst die Psychologie unter dem Begriff Multiple Persönlichkeit zusammen. Von ihrem Ziel, eine exakte Bewusstseinslandkarte des Gehirns erstellen zu können, sind die Neurowissenschaftler noch weit entfernt. Es sei aber nur noch eine Frage der Zeit. Dann, so meint Neurophilosoph Metzinger ist das "subjektive Erleben ein Naturphänomen wie viele andere, ein Phanomen von großer Schönheit und Tiefe, aber eben auch ein entzaubertes Phänomen, eines, das uns keine prinzipiellen Rätsel mehr aufgibt. Dann würde der klassische Begriff der Seele endgültig zu einem leeren Begriff". Die Messverfahren zur biologischen Entschlüsselung der Seele haben sich im letzten Jahrzehnt erheblich verfeinert. Die Positronenemissionstomographie (PET) beispielsweise ist ein bildgebendes Verfahren, mit dessen Hilfe die Stoffwechselvorgänge im Gehirn sichtbar gemacht werden. Die Forscher spritzen in das Blut der Testperson eine schwach radioaktive Substanz. Dann löst der Proband eine bestimmte Aufgabe. An seinem Kopf sind Elektroden befestigt. Diese machen die dabei ablaufenden Hirnaktivitäten auf einem Computerbildschirm sichtbar. Die Neurobiologen gehen davon aus, dass in denjenigen Hirnarealen, die an der Lösung der Aufgabe beteiligt sind, der Stoffwechsel höher ist als in anderen Hirnbereichen. Diese Areale hebt das Monitorbild hervor. Kritik an diesem Verfahren übt der Kölner Philosophieprofessor Günter Schulte.
Er gibt zu bedenken, dass die Grundannahnie, der Hirnstoffwechsel sei bei bewusster Hirntätigkeit erhöht, nicht bewiesen ist. Genauso gut könnte es sein, dass die Hirnzellen sich so auf die nächste Aufgabe einstellen und den Abfall einer früheren Arbeit beseitigen. Dann würde der Stoffwechsel nicht die bewusste Bewältigung einer Aufgabe anzeigen, sondern genau umgekehrt, das Yergessen, Loschen einer Information bewirken". Schultes Kritik setzt an einem. Grundproblem der Naturwissenschaften an, das sie selbst "explanatory Gas'' nennen. Diese Erklärungslücke besteht darin, dass objektive Beobachtungen nicht mit dem Innenleben einer Person gleichzusetzen sind. Auch wenn die biochemischen Hirnprozesse bis ins Detail erforscht sein sollten, sagen sie nichts über die Inhalte subjektiven Erlebens aus. Für Schulte ist "das Objektive nur eine Seite der Welt; ich selbst bin auf der anderen" Er wirft der Neurobiologie vor, zwar die physischen Bedingungen der Seele erforschen zu können. Daraus folge aber nicht automatisch, dass die Seele auch etwas Physisches sei. Schon im vorigen Jahrhundert wies der Philosoph Arthur Schopenhauer auf das Hirnparadox hin. Danach ist das Gehirn, das der Hirnforscher objektiv untersucht, allein das Produkt seiner Vorstellung. Das erforschte Hirn gehört nämlich zu seiner eigenen, hirnproduzierten Wirklichkeit. Schulte bezeichnet deshalb die Hirnforschung auch als "Neuromythologie" Sie erzähle Geschichten, die die Seele erklären sollen. So betrachtet, erfüllt die Hirnforschung eine religiöse Funktion. Sie bietet ein Erklärungsmodell für die menschliche Existenz. Der Glaube an sie wirkt beruhigend, aber auch betäubend. Wer an den Hirnmythos vom Ich glaubt, dem springt vielleicht nicht ab und an die blitzartige Erkenntnis von der Ungeheuerlichkeit des eigenen Daseins in den Nacken. Für den Existenzialisten Schulte sind die großen Fragen wie die nach der Seele nicht dazu da, "um beantwortet zu werden. Wir bedürfen ihrer Ungewissheit, um geistig lebendig zu bleiben", lautet sein Credo."
-
Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006)
0.01
0.0050888485 = product of:
0.020355394 = sum of:
0.020355394 = weight(_text_:und in 5987) [ClassicSimilarity], result of:
0.020355394 = score(doc=5987,freq=12.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17994657 = fieldWeight in 5987, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=5987)
0.25 = coord(1/4)
- Content
- "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
-
Löw, W.: ¬Der Weg zum Wissen : Eine Betrachtung aus biowissenschaftlich-neurobiologischer Sicht (2001)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 5596) [ClassicSimilarity], result of:
0.019586988 = score(doc=5596,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 5596, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5596)
0.25 = coord(1/4)
- Abstract
- Der Verfasser versucht nach einem Literaturüberblick eigene Daten in den Kontext zu stellen. Man darf sicher behaupten, dass Wissen die Basis des heutigen menschlichen Lebens ist. Die Spur des Wissens zu verfolgen scheint nicht ganz einfach, weil es bereits (Vor-)Wissen bedarf, um Wissen zu erlangen. Dazu muss man Fragen stellen - oder anders gesagt: es muss schon viel Information angehäuft, strukturiert worden sein. Daher berührt die erste These die Schwierigkeiten von Menschen, die weit vor den "Forschungsfronten" arbeiten, wer "Wissen schafft, muss besondere Fähigkeiten zum Fragen stellen entwickeln, aber insbesondere auch zum Wahrnehmen. Es gibt Schwellenwerte der Wahrnehmung' neuer wissenschaftlicher Erkenntnisse. Die zweite These: Eine wichtige Rolle zur Überwindung dieser Schwellenwerte spielt jene Kommunikationsform, die am ältesten ist, das Gespräch. Denn die heute zu durchschreitenden Informationswüsten sind am besten mit dem persönlichen Rat zu überwinden. Die vorliegenden Daten aus Befragungen mit rund hundert Wissenschaftlern stützen dies. Nach wie vor - trotz moderner Medien wie Internet, CD-ROM und allen möglichen Datenbanken - wird das Gespräch gesucht. Der Autor sieht das Gespräch (informeller Informationskanal) zum einen - verhaltensbiologisch - als eine Urform menschlicher Kommunikation, d. h. uns ist "angeborenermaßen" eine Präferenz mitgegeben. Zum anderen ist die persönliche Kommunikation ein Wichtungsmaßstab für das" Wahr-nehmen'' im Uberangebot von Printinformationen (formeller Informationskanal), denn nach wie vor ist die Zeitschrift wichtigste Quelle für den Wissenschaftler
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.1, S.5-14
-
fwt: Bewegtes Muster löscht den Hintergrund : Hirnforschung (2001)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 6379) [ClassicSimilarity], result of:
0.019586988 = score(doc=6379,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 6379, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=6379)
0.25 = coord(1/4)
- Content
- "Das Hirn kann Teile des Sehfeldes gezielt ausblenden, um mit der großen Menge der über die Augen aufgenommenen Sinnesreize fertig zu werden. Das berichtetenjetzt Yoram Bonneh vom Smith-Kettlewell Augenforschungsinstitut in San Francisco (USA) und seine Kollegen vom israehscheu Weizmann Institut in der britischen Fachzeitschrift Nature (Bd. 411, Nr. 6839). Die Forscher präsentierten ihren Versuchspersonen ein rotierendes Muster blauer Flecken vor einem Muster feststehender gelber Punkte. Dabei berichteten die Probanden, dass die gelben Punkte immer wieder für mehrere Sekunden zu verschwinden schienen. Dieses Verschwinden von Objekten in ganzen Teilen des Gesichtsfeldes entspricht nicht dem Effekt, der zu erwarten wäre, wenn die optischen Reize sich bereits in der Netzhaut beeinflussten, erklären die Wissenschaftler. Vielmehr deute es darauf hin, dass das Gehirn ganze unwichtige" Bereiche ausblende, um mit der großen Menge der auf es einströmenden Sinneseindrücke fertig zu werden. Dabei übernehme der intensivere Reiz die gesamte Aufmerksamkeit und blende in einem Teil des Gesichtsfeldes den ruhig stehenden Rest aus. Diese bewegungsinduzierte Blindheit" könnte im täglichen Leben viel verbreiteter sein als bisher geglaubt, meinen die Forscher. Beispielsweise bei Fahrten auf Autobahnen, wo die Landschaft sich rasch bewege, aber der vorausfahrende Wagen sich in relativer Ruhe befinde. Sie könnte zudem Hinweise geben auf bestimmte Krankheitsformen, bei denen die Patienten nicht mehr in der Lage sind, sich auf mehr als ein Objekt zu konzentrieren"
-
Van der Vet, P.: Content engineering (2000)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 6656) [ClassicSimilarity], result of:
0.019586988 = score(doc=6656,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 6656, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=6656)
0.25 = coord(1/4)
- Source
- Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
-
Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 569) [ClassicSimilarity], result of:
0.019586988 = score(doc=569,freq=16.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 569, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.01953125 = fieldNorm(doc=569)
0.25 = coord(1/4)
- Abstract
- Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
- Content
- "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
-
Thissen, F.: Screen-Design-Manual : Communicating Effectively Through Multimedia (2003)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 1397) [ClassicSimilarity], result of:
0.019586988 = score(doc=1397,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 1397, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1397)
0.25 = coord(1/4)
- Classification
- ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
- RVK
- ST 253 Informatik / Monographien / Software und -entwicklung / Web-Programmierwerkzeuge (A-Z)
-
dpa; Weizenbaum, J.: "Internet ist ein Schrotthaufen" (2005)
0.00
0.004896747 = product of:
0.019586988 = sum of:
0.019586988 = weight(_text_:und in 1560) [ClassicSimilarity], result of:
0.019586988 = score(doc=1560,freq=4.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.17315367 = fieldWeight in 1560, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1560)
0.25 = coord(1/4)
- Content
- "Das Internet ist nach Ansicht des bekannten US-Computerexperten und Philosophen Prof. Joseph Weizenbaum ein "Schrotthaufen" und verführt die Menschen zur Selbstüberschätzung. Weizenbaum, der in den 60er Jahren das Sprachanalyse-Programm "ELIZA" entwickelte, sprach im Rahmen einer Vortragsreihe im Computermuseum in Paderborn. "Das Ganze ist ein riesiger Misthaufen, der Perlen enthält. Aber um Perlen zu finden, muss man die richtigen Fragen stellen. Gerade das können die meisten Menschen nicht." Verlust von Kreativität Weizenbaum sagte weiter: "Wir haben die Illusion, dass wir in einer Informationsgesellschaft leben. Wir haben das Internet, wir haben die Suchmaschine Google, wir haben die Illusion, uns stehe das gesamte Wissen der Menschheit zur Verfügung." Kein Computer könne dem Menschen die eigentliche Information liefern. "Es ist die Arbeit der Interpretation im Kopf, die aus den Zeichen, die Computer anzeigen, eine Information macht." Der emeritierte Forscher des Massachusetts Institute of Technology kritisierte scharf das frühe Heranführen von Kindern an den Computer: "Computer für Kinder - das macht Apfelmus aus Gehirnen." Die Folge sei unter anderem, dass Studenten zum Teil bereits Programmen das Zusammenstellen der Hausarbeit überlasse. Menschen lernten in den Medien eine Hand voll Klischees, die auch in der Politik-Berichterstattung immer wieder auftauchten. Der Mangel an echter Aussage erkläre etwa den knappen Wahlausgang der USA, dessen 50:50-Proporz Ahnlichkeit mit Zufallsexperimenten habe."