-
Passek, O.: Open Access : Freie Erkenntnis für freie Wirtschaft (2005)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 4517) [ClassicSimilarity], result of:
0.037199806 = score(doc=4517,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 4517, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4517)
0.25 = coord(1/4)
- Abstract
- Die Digitalisierung der Medien verändert auch das wissenschaftliche Publizieren. Bislang galt: Wissenschaftliche Ergebnisse werden in Form von Publikationen auf Papier mitgeteilt. Diese Veröffentlichungen - zumeist Aufsätze in entsprechenden Fachzeitschriften - stellen quasi die öffentliche Verkündung der wissenschaftlichen Erkenntnisse dar. Diese klassische Wissensordnung hat ihren Ursprung in der Gelehrtenrepublik des 19. Jahrhunderts und hat sich in der Forschungsgemeinschaft des 20. Jahrhunderts fortgeschrieben. Konstitutiv für diese akade mische Wissenschaftsverfassung Humboldt'scher Prägung ist in etwa das, was der amerikanische Soziologe Robert Merton mit »Wissenskommunismus« der Wissenschaften meinte: Die Belohnung für Erkenntnisse erfolge nicht in Geld, sondern in der Reputation (vgl. Grassmuck 2002). Nur wer es möglichst oft in die angesehenen Journale schafft, verfügt über entsprechendes Renommee und kann weiter veröffentlichen. Wissenschaftler sagen auch: »Publish or perish« - veröffentliche oder verende. Entsprechend sind Autoren darauf angewiesen, von den internationalen Wissenschaftsverlagen akzeptiert und veröffentlicht zu werden. »Global Player« wie Reed Elsevier, Wiley oder Springer publizieren jährlich Zehntausende von Fachzeitschriften und organisieren so über ihre Vertriebsstrukturen und zu ihren Bedingungen die Verbreitung von Wissen. Diese Macht der Verlage gründet sich vor allem auf ihr Publikationsmonopol in den jeweiligen Spezialdisziplinen.
-
Universität der Bundeswehr München / Forschungsgruppe Kooperationssysteme: Social networking services : Zwischenbericht: Erste Ergebnisse der Umfrage zur privaten Nutzung von Social_Networking_Services (SNS) in Deutschland (2008)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 1057) [ClassicSimilarity], result of:
0.037199806 = score(doc=1057,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 1057, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1057)
0.25 = coord(1/4)
- Abstract
- Social_Networking_Servicessind Anwendungssysteme, die ihren Nutzern Funktionalitäten zum Identitatsmanagement (d.h. zur Darstellung der eigenen Person i.d.R. in Form eines Profils) zur Verfügung stellen und darüber hinaus die Vernetzung mit anderen Nutzern (und so die Verwaltung eigener Kontakte) ermöglichen. Die Umfrage lief vom 03.12.2007 bis zum 31.01.2008. Ziel war es, die private Nutzung von SNS in Deutschland (mit 24 Fragen) näher zu untersuchen, um erstmalig eine nicht kommerzielle, unabhängige und umfassende Übersicht zur Social_Networking_Nutzung in Deutschland zu erhalten. In verschiedenen Blöcken wurden unter anderem folgende Themen abgefragt : - Häufigkeit der Nutzung von SNS - Anzahl an Kontakten in einzelnen SNS - Wer initiierte den Kontakt - Wie werden die Funktionen in den SNS genutzt - Wie ist die Meinung der Nutzer zu Werbung in SNS und zur Weitergabe von Profildaten aus den SNS an Dritte - Mögliche Grunde fur einen Austritt aus einem SNS - Erfolgsfaktoren der SNS: Warum wird ein SNS bevorzugt genutzt - Allgemeine Fragen zur Internetnutzung und zur Demografie
-
Alby, T.: Web 2.0 : Konzepte, Anwendungen, Technologien; [ajax, api, atom, blog, folksonomy, feeds, long tail, mashup, permalink, podcast, rich user experience, rss, social software, tagging] (2007)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 1296) [ClassicSimilarity], result of:
0.037199806 = score(doc=1296,freq=40.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 1296, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1296)
0.25 = coord(1/4)
- Abstract
- Dem neuen Web mal auf die Finger geschaut -- Tom Alby hat sich bereits mit seinem Suchmaschinenoptimierung-Buch einen Namen gemacht und setzt dem Erfolg seines ersten Buches nun mit Web 2.0. Konzepte, Anwendungen, Technologien noch einen drauf. Wie schon bei der Optimierung für Suchmaschinen geht er auch bei seinem Blick auf das Phänomen Web 2.0 ganzheitlich und umfassend an die Arbeit: Ideen, Technik, Umsetzungen, Beispiele, Erfolge, Probleme, Ausblicke und Interviews mit den Machern. Ein Blitzlichtfoto im dunklen Web-Dschungel. Endlich geht es dem Web wieder gut. Alle freuen sich. Die Verlierer werden die Sieger sein. Jetzt wird alles anders. Das Blablabla in den Medien klingt ähnlich wie schon zu Zeiten des Web 1.0. Und doch ist es anders. Was sich geändert hat, zeigt sich jedoch meist erst auf den zweiten Blick -- Alby hat diese Einblicke zusammen getragen und zeigt den aktuellen Stand. Ohne Wortblasen, an Beispielen mit Hintergrund. Nach einem Blick auf die Historie von der New Economy zum Web 2.0 stürzt sich Alby auf das bekannteste Web 2.0-Beispiel: den Blog. Alsdann durchleuchtet er Podcasts, Social Software wie FlickR oder Skype, Folksonomy (wo bleibt das Geld), die Plattformrepräsentanten wie Google, die Technik im Hintergrund von AJAX bis Ruby, Business-Modelle und der Blick Richtung 3.0. Zuletzt dann Interviews mit den Vorreitern der Szene: von Johnny Haeusler bis Jörg Petermann. In Web 2.0. Konzepte, Anwendungen, Technologienkann man pieksen wie man will, es platzt nicht. Das fundierte Über- und Einblicksbuch ist jedem Journalisten, Manager, Trendforscher und Webaktivisten zu empfehlen, denn wer nicht weiß, was Alby weiß, sollte zum Thema Web 2.0 lieber schweigen.
- Classification
- ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
- Footnote
- Rez. in: Mitt VÖB 60(2007) H.3, S.85-86 (M. Buzinkay): "Ein aktuelles Thema der Informationsbranche ist Web 2.0. Für die einen Hype, für andere Web-Realität, ist das Web 2.0 seit wenigen Jahren das "neue Web". Der Autor, Tom Alby, versucht daher im ersten Kapitel auch einen Unterschied zum Vorgänger-Web aufzubauen: Was ist so anders im Web 2.0? In weiterer Folge handelt Alby alle Themen ab, die mit Web 2.0 in Verbindung gebracht werden: Blogging, Podcasting, Social Software, Folksonomies, das Web als Plattform und diverse Web 2.0 typische Technologien. Ein Ausblick auf das Web 3.0 darf auch nicht fehlen. Das Buch liefert hier die notwendigen Einführungen und "Brücken", um auch als Laie zumindest ansatzweise Verständnis für diese neuen Entwicklungen aufzubringen. Daher ist es nur konsequent und sehr passend, dass Alby neben seinem technischen Fachjargon auch leicht verständliche Einführungsbeispiele bereithält. Denn es geht Alby weniger um Technologie und Tools (diese werden aber auch behandelt, eben beispielhaft), sondern vor allem um Konzepte: Was will das Web 2.0 überhaupt und was macht seinen Erfolg aus? Das Buch ist einfach zu lesen, mit zahlreichen Illustrationen bebildert und listet eine Unmenge an online Quellen für eine weitere Vertiefung auf. Doch mit Büchern über das Web ist es genauso wie dem Web selbst: die Halbwertszeit ist sehr kurz. Das gilt insbesondere für die Technik und für mögliche Dienste. Alby hat diesen technischen Zweig der Web 2.0-Geschichte so umfangreich wie für das Verständnis nötig, aus Gründen der Aktualität aber so gering wie möglich ausfallen lassen. Und das ist gut so: dieses Buch können Sie getrost auch in drei Jahren in die Hand nehmen. Es wird zwar andere Dienste geben als im Buch angegeben, und manche Links werden vielleicht nicht mehr funktionieren, die Prinzipien des Web 2.0 bleiben aber dieselben. Sollten Sie sich geändert haben, dann haben wir schon Web 2.x oder gar Web 3.0. Aber das ist eine andere Geschichte, die uns vielleicht Tom Alby zur angemessenen Zeit weitergeben möchte. Ein Bonus, wie ich finde, sind die zahlreichen Interviews, die Tom Alby mit bekannten deutschen Web 2.0 Aushängeschildern geführt hat. Sie geben einen guten Einblick, welchen Stellenwert Web 2.0 in der Zwischenzeit gewonnen hat. Nicht nur in einer Nische von Web-Freaks, sondern in der Welt der Kommunikation. Und das sind wir."
- RVK
- ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
-
Kaiser, R.: Den Aufbruch wagen (2008)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 3466) [ClassicSimilarity], result of:
0.037199806 = score(doc=3466,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 3466, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3466)
0.25 = coord(1/4)
- Abstract
- Die Entwicklung des Internets ist in einer neuen Dimension der Partizipation angelangt. Während bislang Dienste wie Google, Amazon, eBay und Spiegel Online eine zumindest gefühlte Monopolisierung anstrebten, hat sich eine neue Generation von Anwendungen, die sich unter dem Namen Web 2.0 subsumieren, in kürzester Zeit etabliert. Für viele Nutzer ist die wohl bekannteste partizipative Anwendung des Netzes, die Wikipedia, nicht mehr wegzudenken. Auch der Wahlkampf der aktuellen Wahl in den Vereinigten Staaten zeigte uns beispielhaft, wie sich das Mitmachnetz zur Ansprache neuer Wähler/Kundengruppen eignet und welche enormen Bindungskräfte entstehen, wenn die Nutzer auf diesem Weg angesprochen werden. Die Obama-Welle wäre wohl ohne die neuen Möglichkeiten des Netzes so nicht denkbar gewesen. ... Es fehlt uns in erster Linie weniger an der technischen Reife, als an qualifizierten Konzepten und dem nötigen Mut zur Einbindung der neuen Technologien in unser Dienstleistungsangebot. Die Zeit zur Verwirklichung von Web 2.0-Anwendungen in unseren Einrichtungen ist reif. Wagen wir den Aufbruch. Oder um es mit Hermann Hesse zu sagen: "Jedem Anfang wohnt ein Zauber inne, der uns beschützt und der uns hilft, zu leben."
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.8, S.449-451
-
Herget, J.; Mader, I.: Social Software in der externen Unternehmenskommunikation : ein Gestaltungsansatz zur Messung Bewertung und Optimierung von Web 2.0-Aktivitäten (2009)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 3611) [ClassicSimilarity], result of:
0.037199806 = score(doc=3611,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 3611, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Das Internet zeigt seit einiger Zeit einen Paradigmenwechsel an, der einen sozialen Wandel andeutet. Im Fokus dieses Beitrags steht die Frage, ob und in welchem Ausmaß Unternehmen auf die Entwicklungen und Herausforderungen des so genannten Web 2.0 reagieren. In einem ersten Schritt werden Web 2.0-Anwendungen nach dem Merkmal ihrer primären Funktion für das Unternehmen gruppiert. Anschließend wird ein Konzept zur Bestimmung des Nutzens in der externen Unternehmenskommunikation vorgestellt. Dieses Konzept erlaubt die Formulierung verschiedener Metriken zur Bestimmung des Aktivitätsniveaus und des möglichen Leistungsbeitrags für die Unternehmen. In einer ersten Untersuchung wurde dieses Instrument auf die Aktivitäten der im Euro-Stoxx 50 gelisteten Unternehmen angewandt. Das vorgestellte Modell eignet sich ebenso als Benchmarking-Tool im Rahmen der Optimierung von Internet-Auftritten in der b2c-Interaktion (business to consumer).
- Source
- Information - Wissenschaft und Praxis. 60(2009) H.4, S.233-240
-
Stillich, S.: Heute ein König : Wieso Web-Aktivisten den achtjährigen Luke Taylor aus Kansas zur Protestfigur erkoren (2010)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 226) [ClassicSimilarity], result of:
0.037199806 = score(doc=226,freq=40.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 226, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=226)
0.25 = coord(1/4)
- Abstract
- Rache-Aktion irgendwo zwischen Kampf um Meinungsfreiheit und Lust auf Krawall: Wie Hunderte Internet-Aktivisten den achtjährige Luke Taylor zum Märtyrer erkoren.
- Content
- "Angriff der Porno-Krieger: Youtube-Streich Noch zum Jahreswechsel war Luke Taylor nur ein ganz normales, etwas pummeliges Kind aus Wichita im US-Bundesstaat Kansas. Ein Kind mit Brille, Knubbelkinn und einer Videokamera. Und dank dieser ist er für einige Tage zum König des Internets geworden - und für die Videoplattform "Youtube" zum Problem. Die Geschichte geht so: Im Juli vergangenen Jahres beginnt Luke damit, unter dem Namen "lukeywes1234" Filme auf Youtube zu laden. Seine Videos sind harmlose Kindereien. Luke spielt mit seinen Nintendo-Figuren Mario und Luigi, seine Großmutter filmt ihn, wie er mit einem Schwert in der Hand und einem selbst gebastelten Helm aus Alufolie auf dem Kopf "Geisterjäger" spielt. Nur zwei Handvoll Nutzer haben seine Videos zu dieser Zeit abonniert, das heißt: Sie werden sofort benachrichtigt, wenn Luke einen neuen Film online stellt. Freunde aus Wichita sind das vielleicht oder seine Verwandten. Am 27. Dezember lädt Luke Taylor einen neuen Film auf seinen Youtube-Kanal. Atemlos vor Aufregung erzählt er, wie sehr er sich freuen würde, im Februar 50 Abonnenten zu haben. An Neujahr werden die Nutzer des Forums "4chan" auf dieses Video aufmerksam. "4chan" ist so etwas wie ein Durchlauferhitzer im Netz, ein brodelnder Marktplatz von Nichtig- und Wichtigkeiten. Schnell finden sich 50 Nutzer, die die Filme von "lukeywes1234" abonnieren, und noch schneller werden es mehr. Tags darauf erscheint ein neues Video von Luke. Mit großen Augen bedankt er sich für die vielen neuen Abonnenten - 328 sind es jetzt. "Vielen Dank", sagt er immer wieder, "vielen, vielen Dank!" Am nächsten Tag ist die Zahl auf 5000 gestiegen. Bei 7000 Abonnenten dreht Luke ein neues Video. "Das ist verrückt", sagt er und verspricht weitere Folgen seiner "Mario- und Lugi-Supershow, die ihr alle, ähm, anscheinend so gerne mögt". Am 3. Dezember hat er 9000 Abonnenten, am nächsten Morgen sind es 15.000 - und damit einige Tausende mehr als der Videokanal von CNN. Dann, der Schock: Um elf Uhr vormittags sperrt Youtube den Nutzerzu-gang von "lukeywes1234" und löscht alle Filme.
Ein Sturm bricht los im Internet. "Warum wurde sein Zugang gelöscht?", fragen immer mehr Nutzer vor allem bei "4chan". Einen "Verstoß gegen die Nutzungsbedingungen" wirft die Firma dem Jungen vor. Doch was soll das heißen? Youtube gibt dazu keinen Kommentar ab. Und das ist ein Fehler. - Hunderte Videos auf Youtube zollen Luke Tribut Denn nun werden die Diskussionen immer hitziger, und der Zorn der Netz-Gemeinde richtet sich gegen das Unternehmen - aus ehrlicher Sorge um die Freiheit des Netzes und freie Meinungsäußerung, oder einfach aus Lust an Ironie und Hysterie. Schnell tauchen die Filme von "lukeywes1234" wieder auf, hochgeladen von anderen Nutzern. Die Firma löscht sie sofort. Luke Taylor selbst meldet sich unter einem anderen Namen neu an - auch der Zugang wird geschlossen. Zu diesem Zeitpunkt gilt "lukeywes1234" bereits als Märtyrer im Netz, sein Nutzername ist bei Google einer der beliebtesten Suchbegriffe. Hunderte Videos auf Youtube zollen ihm Tribut, dem "Gott", dem "amerikanischen Helden", dem "Führer der freien Welt". "Er ist so lustig und so unschuldig", sagt ein Anhänger, "wir alle sehen ein Stück von uns selbst in diesem Kind." Stimmen, die mahnen, Luke sei doch höchstens acht Jahre alt und schlicht viel zu jung für einen eigenen Youtube-Kanal - das Mindestalter liegt laut den Geschäftsbedingungen bei 13 Jahren - sie gehen unter im digitalen Tumult.
In dieser Woche erreichte der Sturm auf die Videoplattform schließlich seinen Höhepunkt. Die "4chan"-Macher riefen einen "Youtube Porn Day" aus: Die Nutzer wurden aufgefordert, Pornofilme auf Youtube hochzuladen, um die Filterprogramme der Firma zum Absturz zu bringen, die sonst dafür sorgen, dass das Angebot jugendfrei bleibt. Und das ist schon an normalen Tagen schwierig, schließlich landen auf Youtube laut eigenen Angaben des Unternehmens 20 Stunden Videomaterial pro Minute. Am 6. Januar also folgen Hunderte dem Ruf nasch Rache für Lukeywes - warum auch immer. Im Sekundentakt wird Youtube mit Pornoschnipseln vollgepumpt. Das Unternehmen gibt zwar an, den Angriff abgewehrt zu haben - das wird aber einiges an Arbeit verursacht haben. Gezeigt hat der Aufruhr jedenfalls erneut, wie schnell sich im Netz Massen für und gegen etwas mobilisieren lassen - ohne dass dafür ein ernstzunehmender Grund vorliegen muss. Wie viel Luke Taylor von all dem mitbekommen hat, weiß leider niemand. Der zu junge Junge aus Wichita, Kansas, ist bislang auf Youtube (noch) nicht wieder aufgetaucht. Doch eines ist sicher: Seinen Platz als erster Online-Star dieses Jahrzehnts wird er für ewig behalten. Sein Name - oder zumindest sein Benutzername "lukeywes1234" - ist nun eingebrannt in das Gedächtnis des Internets. Ob er das auch noch mit 13 Jahren gut finden wird oder nicht."
-
Neumann, K.: Geodaten - von der Verantwortung des Dealers (2010)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 267) [ClassicSimilarity], result of:
0.037199806 = score(doc=267,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 267, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=267)
0.25 = coord(1/4)
- Abstract
- Mit der Einführung einer europarechtlich flankierten Geodateninfrastruktur gewinnen geobasierte Daten und Anwendungen zunehmend an Bedeutung. Auch die öffentliche Verwaltung will hieran partizipieren und ihre raumbezogenen Daten der Öffentlichkeit zur Verfügung stellen. Damit wird eine datenschutzrechtlich bisher vor allem am Beispiel des Google-Dienstes Street-View diskutierte Frage akut, ob oder wann es sich bei solchen Daten um personenbezogene Daten nach dem Datenschutzrecht handelt. Der Beitrag tritt dem Vorschlag entgegen, solche Daten aus dem Anwendungsbereich des Datenschutzrechtes herauszuinterpretieren, sondern fordert den Gesetzgeber auf eine bereichsspezifische Befugnisnorm mit korrespondierenden Schutzregelungen zu erlassen. Hierfür werden Rahmenbedingungen skizziert und eine Formulierung am Beispiel des Gesetzgebungsverfahrens in Mecklenburg-Vorpommern vorgeschlagen.
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
- Source
- Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
-
Kaeser, E.: Trost der Langeweile : die Entdeckung menschlicher Lebensformen in digitalen Welten (2014)
0.01
0.009299952 = product of:
0.037199806 = sum of:
0.037199806 = weight(_text_:und in 3588) [ClassicSimilarity], result of:
0.037199806 = score(doc=3588,freq=10.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.3287631 = fieldWeight in 3588, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3588)
0.25 = coord(1/4)
- Abstract
- Unaufgeregt und ohne die technischen Fortentwicklungen zu verteufeln richtet Kaeser den Fokus auf Lebensqualität, schält heraus, wo die Technik dem Durchschnittsbürger aufgedrängt wird, Gefahr läuft, ihn in den Griff zu kriegen und seine Lebenswelt zu verändern, und stellt ihr alltägliche, bewusste oder unbewusste Gewohnheiten gegenüber, die unhinterfragt zu einem Durchschnittsalltag gehören, aber oft zu wenig bewusst gepflegt zu werden. So sind seine Themen, unter vielen anderen, die Aufmerksamkeit, das Erinnern, das Lesen, das Schreiben - alles immer betrachtet unter den Aspekten des Handelns und auch der Infragestellung durch oft überproportioniert hereinbrechende, neue Techniken. Eine humorvolle und äusserst geistreiche Annäherung an das, was die echte Lebensqualität ausmacht.
-
Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Ein Halbzeitbericht (2001)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 6900) [ClassicSimilarity], result of:
0.036784153 = score(doc=6900,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 6900, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6900)
0.25 = coord(1/4)
- Abstract
- Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
-
Tappenbeck, I.; Wessel, C.: CARMEN : Content Analysis, Retrieval and Metadata: Effective Net-working. Bericht über den middleOfTheRoad Workshop (2001)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 6901) [ClassicSimilarity], result of:
0.036784153 = score(doc=6901,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 6901, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6901)
0.25 = coord(1/4)
- Abstract
- Das Projekt CARMEN startete als Sonderfördermaßnahme im Rahmen von Global lnfo im Oktober 1999 mit einer geplanten Laufzeit von 29 Monaten. Der Schwerpunkt des Projekts liegt in der Weiterentwicklung von Konzepten und Verfahren der Dokumenterschließung, die den Zugriff auf heterogene, dezentral verteilte Informationsbestände und deren Verwaltung nach gemeinsamen Prinzipien ermöglichen sollen. Dabei geht CARMEN gezielt einen anderen Weg als die meisten bisherigen Ansätze in diesem Bereich, die versuchen, Homogenität und Konsistenz in einer dezentralen Informationslandschaft technikorientiert herzustellen, indem Verfahren entwickelt werden, durch die physikalisch auf verschiedene Dokumentenräume gleichzeitig zugegriffen werden kann. Eine rein technische Parallelisierung von Zugriffsmöglichkeiten reicht jedoch nicht aus, denn das Hauptproblem der inhaltlichen, strukturellen und konzeptionellen Differenz der einzelnen Datenbestände wird damit nicht gelöst. Um diese Differenzen zu kompensieren, werden Problemlösungen und Weiterentwicklungen innerhalb des Projekts CARMEN in drei Bereichen erarbeitet: (1) Metadaten (Dokumentbeschreibung, Retrieval, Verwaltung, Archivierung) (2) Methoden des Umgangs mit der verbleibenden Heterogenität der Datenbestände (3) Retrieval für strukturierte Dokumente mit Metadaten und heterogenen Datentypen. Diese drei Aufgabenbereiche hängen eng zusammen. Durch die Entwicklungen im Bereich der Metadaten soll einerseits die verlorengegangene Konsistenz partiell wiederhergestellt und auf eine den neuen Medien gerechte Basis gestellt werden. Andererseits sollen durch Verfahren zur Heterogenitätsbehandlung Dokumente mit unterschiedlicher Datenrelevanz und Inhaltserschließung aufeinander bezogen und retrievalseitig durch ein Rechercheverfahren erganzt werden, das den unterschiedlichen Datentypen gerecht wird Innerhalb des Gesamtprojekts CARMEN werden diese Aspekte arbeitsteilig behandelt. Acht Arbeitspakete (APs) befassen sich in Abstimmung miteinander mit je verschiedenen Schwerpunkten. Um die Koordination der Arbeiten der verschiedenen APs untereinander zu unterstützen, trafen sich die ca. 40 Projektbearbeiter am 1. und 2. Februar 2001 zum "CARMEN middle OfTheRoad Workshop" in Bonn. Anlässlich dieses Workshops wurden die inhaltlichen und technischen Ergebnisse, die in der ersten Hälfte der Projektlaufzeit von den einzelnen APs erzielt worden sind, in insgesamt 17 Präsentationen vorgestellt
-
fwt: Geheime Zeichen der Vernetzung : Web-Erfinder Tim Berners-Lee plant eine neue 'Revolution' (2001)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 6928) [ClassicSimilarity], result of:
0.036784153 = score(doc=6928,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 6928, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6928)
0.25 = coord(1/4)
- Abstract
- Das World Wide Web soll mehr leisten - das ist Ziel von WWW-Erfinder Tim Berners-Lee. Seine Strategie dabei: die Dokumente im Datennetz vermehrt mit Zusatzinformationen ausstatten, die Suchmaschinen auswerten können. Die meisten Webseiten sind mit HTMLBefehlen programmiert, der Hyper Text Markup Language. Der Code enthält den Text, der beim Abruf auf dem Bildschirm stehen soll, und weitere versteckte Informationen. Dazu zählen Verweise zu anderen Texten, Bildern oder Filmen und Angaben über den Inhalt der Seite. Dank dieser technischen Zusätze können beispielsweise Suchmaschinen Homepages automatisch in ihren Bestand aufnehmen. die Dokumente im World Wide Web sollen weit mehr verborgene Informationen kennen als bisher, erläutert Berners-Lee in der britischen Wissenschaftszeitschrift Nature (Band 410, Seite 1023). Eine Forschungsarbeit könne beispielsweise die Messergebnisse eines beschriebenen Versuchs und die dazu verwendeten Materialien maschinenlesbar kennzeichnen. Das Dokument würde sich und seinen Inhalt für andere Computer detailliert beschreiben und eine Kommunikation von einem zum anderen Rechner erleichtern. Intelligente Suchmaschinen könnten die universellen Zusatzinformationen schnell lesen, auswerten - und gezielt Fragen beantworten. Nutzer dürften dann RechercheAufträge geben wie: "Finde alle Dokumente heraus, die die Untersuchung der Erbsubstanz DNA mit Hilfe der Substanz Calcium beschreiben." Die für den Sucherfolg maßgeblichen zusätzlichen Informationen würden nicht am Bildschirm auftauchen und die Leser verwirren, sondern blieben - wie bisher die Verweise auf andere Seiten im Web - weitgehend unsichtbar im Hintergrund. "Wir sind in den frühen Tagen einer neuen Web-Revolution, die tief greifende Auswirkungen auf das Publizieren im Web und die Natur des Netzes haben wird", ist Berners-Lee optimistisch. Er hatte das World Wide Web - den grafischen und mit der Maus zu bedienenden Teil des Internets - zu Beginn der neunziger Jahre am Europäischen Zentrum für Teilchenphysik (Cern) in Genf erfunden. Seither hat es sich mit rasender Geschwindigkeit verbreitet und ist zum Schrittmacher für eine ganze Branche geworden. Heute ist Berners-Lee Direktor des World Wide Web Consortium (W3C), das Standards für das WWW entwickelt. Berners-Lee skizziert mögliche Auswirkungen des semantischen Computernetzes auf naturwissenschaftliche Forschungsarbeiten: Wissenschaftler könnten ihre Ergebnisse außerhalb eines Fachartikels publizieren. Ein zugelassener Kollegenkreis hätte Zugriff und könnte Anregungen für das weitere Vorgehen geben ohne auf die gedruckte Version der Arbeit in einem Fachjournal warten zu müssen. Ist das Science-Fiction? Berners-Lee hält dagegen. Wer hat vor einem Jahrzehnt geglaubt, dass ein computergestütztes Netz von Texten die 200 Jahre alte Tradition des akademischen Publizierens herausfordern würde?«
-
Heess, J.: Gutenbergs Erbe (2002)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 1448) [ClassicSimilarity], result of:
0.036784153 = score(doc=1448,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 1448, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1448)
0.25 = coord(1/4)
- Content
- "Johannes Gutenberg würde sich im Grab umdrehen. Oder zumindest Kopf stehen, wie die bleiernen Lettern, die er einst erfunden hat. Nicht nur, weil sein Name bereits seit 1994 für ein völlig blei- und druckfreies Erzeugnis herhalten muss - für das Projekt Gutenberg, das rund 250000 Seiten Literatur digital anbietet. Jetzt ist er auch noch zum Spielball einer seltsamen Auseinandersetzung geworden. AOL, der bisherige Server-Gastgeber der virtuellen Bibliothek, machte Schluss mit Gutenberg. Nach fünf Jahren Zusammenarbeit kündigte der Onlinedienst im Juni des vergangenen Jahres dem ProjektErfinder Gunter Hille den Vermarktungsvertrag - mit dem Hinweis, dass man sich doch bitte möglichst bald neue Hilfe suchen solle. Ein ganz normaler Vorgang, sagt AOL-Sprecher Jens Nordlohne. Weil sich AOL auch mal anderen kulturellen und sozialen Projekten widmen wolle. Und Gutenbergs Erbe jetzt auf eigenen Füßen stehen könne. Das konnte es 16 Tage lang nicht. So lange war die literarische Digi-Datenbank offline. Und die Darstellung des Kündigungsvorgangs hört sich aus dem Mund 'von Gunter Hille ganz anders an: Ja, der Werbevertrag sei zwar vergangenes Jahr aufgelöst worden, aber die Kündigung für das Hosting nicht mit einbegriffen gewesen. Die sei erst am 28. Februar mündlich gekommen- quasi von einem Tag auf den anderen. Eine Galgenfrist von zwölf Tagen konnte Hille noch raushandeln, dann war die Kooperation endgültig am Ende und die Seite nicht mehr erreichbar. Die Darstellung wiederum lässt Herrn Nordlohne in die Luft gehen und starke Worte wählen: Unverschämtheit, Unverfrorenheit! Und ebenso starke Bilder: Die Hand, die jahrelang gefüttert hat, werde jetzt gebissen! Herr Hille wiederum sagt, AOL wolle ja bloß nicht mehr Gutenberg Pate sein, weil das Projekt keine lukrativen Werbeeinnahmen verspreche. Der lachende Dritte im Gutenberg-Gezerre ist Spiegel Online. Dort nämlich hat Hille mit seinen Texten ein neues Zuhause gefunden (www.gutenberg2000.de). Und fühlt sich pudelwohl. Eine fantastische Unterstützung und so weiter und so fort, schwärmt er von seinem neuen Speicherplatzhirsch. Er habe rund 20 andere interessante Angebote gehabt und sich schließlich für den Spiegel entschieden. Der Zwist mit AOL brachte Hille nicht nur Arger, sondern sorgte auch für eine ordentliche Publicity. Herr Gutenberg selig hätte sicher den digitalen Kram samt der beschworenen Gutenberg-Galaxis längst zum Teufel gejagt. Angesichts der widersprüchlichen Aussagen der Streithähne würde er wohl das Buch zücken, an dessen Berühmtheit er nicht ganz unbeteiligt ist. Steht doch in der Bibel etwas von "Du sollst nicht falsch Zeugnis reden wider Deinen Nächsten." Schwarz auf weiß."
-
Johannsen, J.: InetBib 2004 in Bonn : Tagungsbericht: (2005)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 4125) [ClassicSimilarity], result of:
0.036784153 = score(doc=4125,freq=88.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 4125, product of:
9.380832 = tf(freq=88.0), with freq of:
88.0 = termFreq=88.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4125)
0.25 = coord(1/4)
- Content
- "Mittlerweile schon zum achten Mal fand vom 3. bis 5. November 2004 in Bonn die Tagung der InetBib-Mailingliste statte. Zehn Jahre nach Gründung der Liste "Internet in Bibliotheken" an der Universitätsbibliothek Dortmund haben sich die Tagungen gleichen Namens als eine der bundesweit bedeutendsten Veranstaltungsreihen zum Themenkomplex Bibliotheken und neue Medien in der Informationsgesellschaft etabliert - ein Ruf, dem auch diese Tagung gerecht wurde. Als Veranstalter fungierten im Jubiläumsjahr neben der Dortmunder UB die Universitäts- und Landesbibliothek Bonn, die Firma ImageWare Components GmbH sowie die Bibliothek der Friedrich-Ebert-Stiftung (FES), in deren Räumen die Tagung stattfand. Die Wahl des Veranstaltungsortes kann als äußerst geglückt gelten, und zwar nicht nur, weil sich die Räumlichkeiten als sehr gut für eine Tagung dieser Größenordnung (über 400 Teilnehiner, mehr als 40 Vorträge in zum Teil parallelen Sektionen) geeignet erwiesen, sondern auch, weil die Bibliothek der FES als Beispiel dafür gelten kann, wie sehr sich wissenschaftliche Bibliotheken auch außerhalb der Hochschulen durch die Einführung neuer Informationstechniken und Kommunikationsmedien im vergangenen Jahrzehnt verändert haben. Bibliothekshomepage, Online-Katalog, Retrokonversion, elektronischer Volltext, Digitalisierung historischer Quellen, Archivierung von lnternetseiten, bibliothekarische Kooperation in virtuellen Fachbibliothek - dies sind Aspekte, die das Gesicht dieser international bedeutenden Spezialbibliothek zur Geschichte und Gegenwart der Arbeiterbewegung seit Mitte der 1990er Jahre in immer stärkerem Maße prägen. Die Bilanz kann sich sehen lassen kann, was auch durch die beiden von Bibliothek und Archiv der FES gestalteten Sektionen zu Fragen der digitalen Archivierung eindrucksvoll illustriert wurde.
Wie sehr sich die Verhältnisse seit den Anfangstagen der Liste gewandelt haben, machte InetBib-Initiator Michael Schaarwächter (Dortmund) in seinem Eröffnungsvortrag schlaglichtartig deutlich, als er die damaligen Bedenken zitierte, die Freigabe des Internets für öffentliche PCs in der UB könnte den Anschluss der Einrichtung an das Wissenschaftsnetz ("64 kB für die ganze Uni") über Gebühr belasten. Eine solche Rückschau blieb jedoch die Ausnahme, vielmehr widmete sich die Jubiläumstagung intensiv der Bestandsaufnahme und dem Ausblick. Dabei verdichtete sich über die drei Tage hinweg der Eindruck, daß die technologischen Herausforderungen, denen die Bibliotheken heute gegenüberstehen, nur eine - und vielleicht nicht die am schwierigsten zu bewältigende - Seite des sich revolutionierenden elektronischen Informationsmarktes darstellen. Gerade in den Sektionen, die sich schwerpunktmäßig mit dem elektronischen Publizieren, dem E-Learning, mit Suchmaschinen und Fachportalen und mit der Situation der elektronischen Dokumentenlieferdienste beschäftigten, wurde deutlich, dass konstruktive Kommunikations- und Kooperationsstrukturen zwischen der Wissenschaft und den Bibliotheken eine zentrale Voraussetzung für die Herausbildung einer funktionierenden Wissens- und Informationsversorgung darstellen. Zur Herstellung solcher Kommunikationsstrukturen könnten nicht zuletzt auch die InetBib-Tagungen beitragen, wenn sie in Zukunft verstärkt Wissenschaftler und Bibliothekare ins Gespräch über das Machbare und das Wünschenswerte brächten. Dass die gerne gebrauchten Begriffe "Information" und "Kommunikation" im Verhältnis zwischen wissenschaftlichen Forschungseinrichtungen und ihren bibliothekarischen und informationellen Infrastruktureinrichtungen zur Zeit häufig noch mit Inhalten zu füllen sind, zeigte Thomas Kamphusmann vom Fraunhofer-Institut für Software- und Systemtechnik (Dortmund) mit seinen Ausführungen zur technischen Unterstützbarkeit wissenschaftlicher Kommunikation auf. Nur durch das Verständnis wissenschaftlicher Arbeitsund Kommunikationsprozesse, so die am Beispiel elaborierter Benachrichtigungssysteme erläuterte These, lassen sich bibliothekarische Dienstleistungen aus der Sicht ihrer Nutzer optimieren. Andererseits scheint wiederum das Bewusstsein, gegenwärtig eine Informations- und Beschaffungskrise zu erleben, das als ein Kristallisationspunkt gemeinsamen Vorgehens fungieren könnte, bei Bibliothekaren weiter verbreitet zu sein, als bei vielen Wissenschaftlern.
Dies wurde nicht zuletzt in der Diskussion zu dem äußerst informativen Referat von Uwe Rosemann (Hannover) zur aktuellen Urheberrechtsdebatte und zur Klage gegen subito beklagt - Bibliothekare seien hier zur Schaffung des Problembewusstseins an ihren Hochschulen aufgefordert, so der Konsens der Diskutanten. Bedauert wurde in dieser Sektion die kurzfristige Absage des Rechtswissenschaftlers Thomas Hoeren (Münster), dessen Ausführungen zu aktuellen Rechtsfragen der Bibliotheken sich jedoch mittlerweile online nachlesen lassen. Ein Beispiel für unbefriedigende Kommunikation- und Kooperationsstrukturen im Bereich des wissenschaftlichen Bibliothekswesens führte Silke Schomburg vom Hochschulbibliothekszentrum NRW (Köln) in ihrer Bestandsaufnahme zum Thema Open Archives Initiative in Deutschland an. Sie wies darauf hin, dass wissenschaftliche Dokumente trotz verfügbarer Standards immer noch viel zu häufig auf Servern ohne OAI-Schnittstelle liegen, was zu einer Situation führt, die weder im Interesse der Produzenten und Nutzer dieses Wissens sein kann, noch in dem der Bibliotheken, die zu seiner Erschließung aufwändigen Ressourceneinsatz betreiben. Angesichts knapper personeller und finanzieller Spielräume sollte die verstärkte Kooperation von Data- und Service-Providern von beiden Seiten als eine Selbstverständlichkeit angesehen werden, was aber, so das auch in der Diskussion bestätigte Fazit, noch zu selten der Fall ist. Hans-Joachim Wätjen (Oldenburg) machte in diesem Zusammenhang mit seinem Beitrag zum Thema Open Access in Deutschland deutlich, dass die Versäumnisse durchaus auch auf Seiten der Bibliotheken zu suchen sind. Weder komme es zwischen den Bibliotheken in ausreichendem Maße zum Datenaustausch über Open Access-Publikationen, noch würden solche Publikationen durch die Bibliotheken systematisch eingesammelt. Wenn aber die "Bringschuld" bei den Wissenschaftlern verbleibe, die darüber hinaus noch von "lästigen Metadaten- und Upload-Formularen" abgeschreckt würden, so trage dies nicht zur Attraktivitätssteigerung des Open Access-Gedankens bei ihnen bei. Auf die Wissenschaftler - also die Produzenten und Konsumenten wissenschaftlicher Informationen - kommt es, so war auf der Tagung wiederholt zu hören, schlussendlich an, wenn es um die Etablierung neuer Publikations- und Archivierungsmodelle unter Beteiligung der Bibliotheken geht.
Ein solches Modell stellt auch die vom Land Nordrhein-Westfalen ins Leben gerufene Open Access-Initiative Digital Peer Publishing' dar, die sich die Kooperation von Wissenschaftlern und Bibliothekaren explizit auf die Fahne geschrieben hat: bei acht elektronischen Fachzeitschriften sollen "Redaktionstandems" aus Fachwissenschaftlern und Hochschulbibliothekaren gemeinsam neue Wege der Informationsversorgung beschreiten. Das geschichtswissenschaftliche E-Journal "Zeitenblicke" wurde als ältestes dieser Projekte von der Kölner Historikerin Gudrun Gersmann vorgestellt. Hier präsentierte sich eine gehaltvolle E-Zeitschrift, deren Inhalte gelegentlich im Schnittfeld sowohl des historischen als auch des bibliothekarischen Interesses liegen. Leider wurde dabei nicht völlig klar, welche Rolle die beteiligten Bibliotheken (hier die USB Köln) beim DiPP-Projekt konkret spielen. Ähnliches lässt sich zu einigen der Präsentationen im Bereich E-Learning und Wissensmanagement sagen. So bot zwar die Präsentation von Ulrike Wigger (Köln) zum "Wissensmanagement an der Deutschen Sporthochschule Köln" eine durchaus beeindruckende Übersicht über die technischen Möglichkeiten multimedialen E-Learnings. Hier wie auch in den eher allgemeinen Überlegungen von Ute Engelkenmeier (Dortmund) blieb jedoch die entscheidende Frage nach einer überzeugenden Gesamtkonzeption der "universitären Integration" (Wigger) des Wissensmanagements unter Einschluss der Hochschulbibliotheken zu weiten Teilen unbeantwortet.
Ein etwas zwiespältiges Gefühl hinterließ auch die von Berndt Dugall (Frankfurt) ebenso amüsant wie schonungslos vorgetragene Leistungsbewertung des Internetportals www.vascoda.de. Dugall dokumentierte aus der Nutzerperspektive einige von ihm mit zweifelhaftem Erfolg durchgeführte Recherchen in diesem Portal, wobei er fraglos auf ähnliche Erfahrungen vieler seiner Zuhörerinnen und Zuhörer rekurrieren konnte. Die Erkenntnis, dass der Auftritt von vascoda Schwächen hat, ist freilich nicht neu und wird nicht einmal von Seiten der vascoda-Gremien bestritten. Eine Kritik, die vor allem darauf aufbaut, dass Fachwissenschaftler für die Informationssuche mit ihrem jeweiligen Fachportal besser bedient sind als mit vascoda, geht jedoch an vascodas eigentlichem Ziel vorbei. Die potentielle Stärke von vascoda kann und soll nicht darin liegen, virtuelle Fachbibliotheken zu ersetzen. Im Gegenteil: als betont interdisziplinärer Sucheinstieg kann dieses Dachportal im Idealfall helfen, das Angebot der einzelnen Fachportale auch für weitere, aus verschiedenen Disziplinen stammende Wissenschaftskreise zu öffnen und Informationssuchende zur weiteren Recherche in Fächern anzuregen, die ihnen ansonsten eventuell verschlossen geblieben wären. Dieser Vorteil einer zusätzlichen übergreifenden Recherche kommt freilich, hier ist Dugall zuzustimmen, momentan durch die sachliche und formale Heterogenität der abgefragten Bestände häufig nicht zum Tragen, so dass das Motto von vascoda -"Entdecke Information" - im Alltagsbetrieb hin und wieder eine unfreiwillig komische Komponente entwickelt. Wenn eine Recherche einerseits eine nicht mehr zu bewältigende Masse von Nachweisen bei einigen der in das Portal eingebundenen Angebote ergibt (etwa weil in großer Zahl Volltexte und Abstracts durchsucht werden), andererseits aber eigentlich zu erwartende, da thematisch nahe liegende Treffer ausbleiben (weil allein der Fachinformationsführer der entsprechenden Fachbibliothek in die Metasuche eingebunden ist), so ergibt dies ein schiefes Bild, das kaum Rückschlüsse auf die Relevanz des recherchierten Begriffs in den einzelnen Wissenschaften erlaubt. Nun mag zwar vascoda seinem ehrgeizigen Anspruch (noch?) nicht gerecht werden - aber ist der Anspruch deswegen schon vermessen? In gewisser Weise spiegeln die Probleme von vascoda die schwierigen Seiten der vielgestaltigen wissenschaftlichen Bibliotheks- und Informationslandschaft in Deutschland wieder, zu deren Verbesserung nun mal ehrgeizige politische, institutionelle und technische Infrastrukturmaßnahmen notwendig sind. Vascoda stellt eine solche Infrastrukturmaßnahme dar, deren Bedeutung am Beginn der zweiten Ausbauphase vielleicht immer noch mehr in der visionären Idee als in der aktuellen Realisierung liegt. Kritik an Funktionalität und Performanz von vascoda ist vor diesem Hintergrund nicht nur berechtigt, sondern auch notwendig, kann aber wohl nur fruchtbar werden, wenn die Verbesserung des interdisziplinären wissenschaftlichen Informationswesens von den Bibliotheken und Informationszentren im Sinne ihrer Nutzer als gemeinsam zu bewältigende Aufgabe begriffen wird. Wenn sowohl die Mailingliste als auch die Tagungen sich weiterhin dieser Aufgabe stellen und beide darüber hinaus noch stärker zu Foren des Austausches zwischen Bibliothekaren und Wissenschaftlern werden, so wird man sich um "die InetBib" in den nächsten zehn Jahren wenig Sorgen machen müssen - allen Kommunikationsstörungen zum Trotze."
-
Karisch, K.-H.: Am Grund (2001)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 4366) [ClassicSimilarity], result of:
0.036784153 = score(doc=4366,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 4366, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4366)
0.25 = coord(1/4)
- Abstract
- Wissen schafft Märkte. So heißt nicht nur ein Aktions-Programm der Bundesregierung. Allenthalben blickt man in diesen Wochen auf die Ausschläge der Konjunktur-Barometer. Im Wettrennen mit den USA, Japan und asiatischen Tigern wissen Forschungsministerin Edelgard Bulmahn und Wirtschaftsminister Werner Müller, worauf es jetzt ankommt: "Es muss noch schneller als in der Vergangenheit gelingen, neue Forschungsergebnisse in Wertschöpfung am Markt umzusetzen." So löblich solche Vorhaben auch sind - die Grundlagenforschung darf aus guten Gründen nicht hinten runter fallen. Die gravierendsten Entdeckungen mit den weitreichendsten wirtschaftlichen Folgen sind immer wieder unerwartet aus der Grundlagenforschung entsprungen. Der Chemiker Otto Hahn etwa wollte durch Neutronenbeschuss schwerere Elemente erzeugen - und entdeckte auf seinem Schreibtisch die Atomspaltung. Auch ein zufälliges Zusammentreffen der amerikanischen Biochemiker Herbert Boyer und und Stanley Cohen im Jahr 1973 hatte weitreichende Folgen. Sie erzeugten das erste "rekombinante" Bakterium: es war die Geburtsstunde der Gentechnologie. Erwin Chargaff, der Mitentdecker des genetischen Codes kommentierte beide Entwicklungen handfest. "Der Mensch hätte die Finger von zwei Kernen lassen sollen: Vom Atomkern und vom Zellkern." Aber das ist, bei aller Ehrfurcht vor dem genialen Knaben, ebensolcher Unsinn wie die Ausrichtung der Forschung auf Industrieinteressen. Es ist traurig, dass aus neuen Entdeckungen leider schlimme Dinge wie die Atombombe oder biologische Kriegswaffen erwachsen können. Aber die Beispiele zeigen, dass zum Zeitpunkt einer Entdeckung meist noch gar nicht absehbar ist, wohin die Reise gehen wird. Das war schon bei Max Planck so, der sich mit der Strahlung schwarzer Körper herumSchlug und mit seiner Quantentheorie den Grundstein für die moderne Computer- und Nanotechnologie legte. Auch das Tunnelmikroskop basiert auf seiner Theorie. Dieses ersstaunliche Gerät wurde Anfang der 80er Jahre im IBM-Forschungslabor in Zürich von Gerd Binnig und Heinrich Rohrer erfunden. Erstmals konnten damit Atome sichtbar gemacht werden - ein Thema der Grundlagenforschung, wie es zunächst schien. Doch inzwischen wurde entdeckt, dass man mit diesem "Mikroskop" auch Atome neu anordnen kann. Wissenschaftler haben die vor 100 Jahren theoretisch postulierte Quantenwelt des Herrn Planck betreten und begonnen, darin erste kleine Bauwerke zu errichten. Möglicherweise werden dort schon bald nicht nur gewinnbringende neuartige Computer gebaut, sondern auch furchtbare kleine Kriegsroboter, wie von Technikkritikern prophezeit. Vorbeugende Verbote können daran nichts ändern. Denn auch die Erfolgsstory des Internet begann zufällig - bei einem Wissenschaftler des Europäischen Teilchenforschungszentrums Cern in Genf Tim Berners-Lee wollte Dokumente mit Bildern verbinden. So programmierte er 1990 eine mit der Maus anklickbare grafisehe Benutzeroberfläche - das World Wide Web entstand daraus und wurde zu einem der gewaltigsten ökonomischen Programme aller Zeite
-
Sülzer, T.: Von Didis "Palim-Palim" bis zu Ronaldinho : Im Internet laden Streaming-Dienste zum Stöbern in und Bestücken von "Filmchen"-Archiven ein (2006)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 5315) [ClassicSimilarity], result of:
0.036784153 = score(doc=5315,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 5315, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5315)
0.25 = coord(1/4)
- Content
- "Zugegeben: Noch ist es nicht so weit, dass wir den Fernsehapparat anschalten und dabei gar nicht merken, dass die Programme per Internet auf den Bildschirm kommen. Aber andersrum funktioniert die Sache schon ganz gut: Längst wartet ein fast unüberschaubares Archiv an völlig unterschiedlichen Filmen und Filmchen im Netz. Darunter ist zwar auch manch eine verwackelte Aufnahme von langweiligen Selbstdarstellern. Aber andererseits warten auch viele echte Schätzchen darauf, entdeckt und gehoben zu werden. Wer über einen schnellen Internetzugang verfügt - DSL sollte es bei den Datenmengen schon sein - kann sich bequem durch das Riesenangebot klicken und mit Hilfe einer Suche nach Stichworten (Tags") das Richtige finden. YouTube.com, DailyMotion.com oder auch MyVideo.de sind Anlaufstellen, um Filme zu suchen. Und man findet wirklich die unglaublichsten Sachen, in allen möglichen Kategorien: Musikfreunde finden Konzertausschnitte, manchmal schon Stunden nach dem Konzert, Musikvideos - auch solche, die nie im Fernsehen laufen. Der Fußballfan erfreut sich an Zusammenschnitte von Ronaldinhos besten Tricks oder auch Oliver Neuvilles WM-Tor gegen Polen. Es gibt Spielfilmtrailer zu allen möglichen neuen, alten und uralten Filmen, es gibt Aufzeichnungen von Sequenzen aus Computerspielen und - kaum zu glauben - selbst den Palim-Palim-Sketch mit Didi Hallervorden hat jemand hochgeladen. All das ist kostenlos zu sehen, in wechselnder Qualität. Und auch das Einstellen eigener Beiträge kostet nichts. Nach unproblematischer Anmeldung kann man seine eigenen Streifen hochladen, egal ob mit modernem Camcorder aufgenommen oder mit der integrierten Kamera im Taschentelefon. Je nach Anbieter ist allein der Speicherplatz begrenzt. Die Anzahl der Filme hingegen ist unbegrenzt. Ein interaktives Element ist die Kommentar-Funktion, wie man sie aus Weblogs oder Fotodiensten wie Flickr kennt. Verdienen lässt sich mit der artigen Plattformen momentan nichts. Würde ein Angebot kostenpflichtig, würde die Community mutmaßlich geschlossen umziehen - zum nächsten kostenlosen Anbieter. Auch Google will erst später entscheiden, ob auch kostenpflichtige Filme ins Angebot genommen werden, sagte Google-Manager Patrick Walker. In den USA bietet Google Fernsehserien an, zum Beispiel "Desperade Housewives". Internet und Fernsehen wachsen zusammen: Erst vor zwei Wochen verkündeten der USSender NBC und YouTube eine strategische Partnerschaft."
-
Charlier, M.: Listenkultur (2003)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 2305) [ClassicSimilarity], result of:
0.036784153 = score(doc=2305,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 2305, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2305)
0.25 = coord(1/4)
- Content
- "Bei all den bunten Seiten übersieht man leicht, dass das Internet größer ist als das Web. Wirtschaftlich gesehen ist die E-Mail mindestens so bedeutend wie das WWW Leute, die beruflich mit dem Netz zu tun haben, verbringen mit der Post mehr Zeit als beim Surfen, und auch für Privatleute stehen Mails nun an erster Stelle (www. daserste.de/intern/entwicklung2002.pdf). Auf der Basis der guten alten Mail hat sich eine eigene Kultur im Netz entwickelt: Mailinglisten. Technisch sind das einfache Verteiler. Jede Nachricht geht an alle Teilnehmer der Liste, jeder kann alles lesen und beantworten - notfalls auch privat (fte.tegtmeyer.net/ml.html). Kein Thema ohne Liste: Briefmarken, Brieftauben, Blindenhunde, Blumenzüchter - alles vertreten. Wie viele solche Listen es gibt, weiß niemand; allein in Deutschland ist es bestimmt eine sechsstellige Zahl. So einfach die Technik der Listen ist, so kompliziert ist oft ihre soziale Struktur. Da gibt es Platzhirsche, die sagen, wo's langgeht, und Elche oder Trolle, die liebend gerne Sand ins Getriebe werfen - und genüsslich zusehen, wie es knirscht und klemmt. Hinterbänkler gibt es in Massen, man liest nie etwas von ihnen - höchstens anderswo: Dort geben sie das in der Liste Aufgeschnappte als Eigenes aus. Oder wenn es um Fachlisten geht: verkaufen es gegen teures Beraterhonorar. Bis sie beim Mogeln ertappt werden. Auf den ersten Blick geht es da ein bisschen zu wie in einer Schulklasse, nur dass viele Teilnehmer zwischen 30 und 50 Jahren alt sind. Selbst das, was spielerisch aussieht, hat oft nicht nur spielerischen Hintergrund. Als der Gründer und Verwalter einer 2000 Mitglieder starken Webdesign-Liste nach fünfeinhalb Jahren sein Amt niederlegte, wurde eindrucksvoll sichtbar, wie viel Energie solch ein Engagement verlangt - und welche Wirkung man damit entfalten kann: Zehntausende Websites würden schlechter aussehen, hätte den Gestaltern der Austausch gefehlt. Aber wie gesagt: Es muss nicht immer Engagement und Wirkung sein, im Netz der Listen gibt es ungezählte Möglichkeiten. Wer im Web zu viel Kommerz und zu wenig Kommunikation findet, kann ja mal in einer Suchmaschine sein Interessengebiet und "Mailingliste" eingeben. So findet man zwar nicht alles - nicht jede Liste hat eine Homepage im Web. Aber allemal mehr als genug."
-
Kusenberg, P.: Freilwillige vor! : Bei Helpedia im Internet gibt es Ehrenämter für alle (2008)
0.01
0.009196038 = product of:
0.036784153 = sum of:
0.036784153 = weight(_text_:und in 286) [ClassicSimilarity], result of:
0.036784153 = score(doc=286,freq=22.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32508966 = fieldWeight in 286, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=286)
0.25 = coord(1/4)
- Content
- "Eine pensionierte Grundschullehrerin aus Köln-Lindenthal möchte etwas tun, um anderen Menschen helfen. Sie kann sich beim Deutschen Roten Kreuz erkundigen, bei der Arbeiterwohlfahrt, der Caritas - oder sie ruft im Internet die Seite www.helpedia.org auf. Hier gibt sie ihre Wunsch-Tätigkeit ein, etwa Helferin in der Altenpflege, und sucht Köln-weit nach entsprechenden Angeboten. Tausende Jobs in der Datenbank Die Helpedia-Website enthält immerhin eines der umfassendsten Angebote gemeinnütziger Jobs und Veranstaltungen in Deutschland. Der Berliner Volkswirt Sebastian Schwiecker (siehe Interview) gründete die anerkannt gemeinnützige Organisation Helpedia im Sommer vergangenen Jahres und bemüht sich mit freiwilligen Helfern darum, das Angebot auszubauen. Vorbild sind amerikanische Internetplattformen wie www.networkforgood.org ünd www.volunteermatch.org, die als ehrenamtliche Netzwerke Millionen Nutzer aufweisen und sich zu ersten Anlaufstellen für hilfsbereite Amerikaner mausern. Auf der Suche nach vergleichbaren Angeboten in Deutschland sei er nicht fündig geworden, erklärt Schwiecker. Als ihm die Größe des gemeinnützigen Sektors klar wurde, begann er, Ideen weiterzuentwickeln und zusätzliche Mitstreiter zu gewinnen. Die Entscheidung, Helpedia zu gründen, veranlasste Schwiecker schließlich, seinen bisherigen Job zu kündigen, "da ich nicht glaube, dass man ein professionelles Angebot als Hobby betreiben kann." Helpedia beherbergt derzeit Tausende Job Angebote in seiner Datenbank: bei der Freiwilligen Feuerwehr in Dittelbrunn-Hambach, als ehrenamtlicher Blutspende-Helfer fürs Rote Kreuz oder als Koordinatoren beim Kinderferienparadies 2008. Die Helpedia-Betreiber weisen zudem auf gemeinnützige Veranstaltungen hin und bemühen sich um Partner, die die Datenbank des Portals bereichern und unterstützen. Derzeit arbeiten weniger als ein Dutzend junge Menschen für Helpedia - außer Geschäftsführer Schwiecker alle ehrenamtlich.
Helpedia leidet darunter, dass Internet-Betrüger gern vorgeben, gemeinnützig zu sein. Schwiecker kämpft daher besonders vehement um ein seriöses Image: "Das Finanzamt hat uns als gemeinnützige Organisation anerkannt", sagt er: "Bei neuen Partnern orientieren wir uns im Zweifelsfall daran, ob die entsprechende Organisation offiziell gemeinnützig und in einem der von uns vorgegebenen Bereiche tätig ist, damit keine schwarzen Schafe in unsere Datenbank geraten." Alle Helpedia-Aktionen macht Schwiecker im Internet publik, alle Einträge in der Datenbank enthalten nötige Kontakt-Daten sowie das Logo der jeweiligen Organisation, sei es "Brot für die Welt" oder die Deutsche Lebensrettungsgesellschaft. Hilfs-Beitrag in der realen Welt Helpedia funktioniert schon jetzt gut, wie sich herausstellt: Besagte Kölner Lehrerin erhält auf ihre Anfrage immerhin zehn Treffer, darunter einen, der auf eine Betreuer-Arbeit bei einer unweiten Caritas-Dienststelle hinweist und gleich E-Mail-Adresse und Telefonnummer enthält. Wer sich bei Helpedia registrieren möchte, kann dies kostenlos und unverbindlich tun. Im Forum darf jeder Besucher Verbesserungsvorschläge machen, auf schwarze Schafe hinweisen - oder das Angebot loben, das im Gegensatz zu Quatsch-Portalen ä la StudiVZ einen Hilfs-Beitrag in der realen Welt zu leisten vermag."
-
Schneider, I.: Virtuelle Gemeinschaften : utopische Entwürfe für das 21. Jahrhundert (2001)
0.01
0.009169876 = product of:
0.036679503 = sum of:
0.036679503 = weight(_text_:und in 582) [ClassicSimilarity], result of:
0.036679503 = score(doc=582,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32416478 = fieldWeight in 582, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=582)
0.25 = coord(1/4)
- Abstract
- Der Beitrag verfolgt eine diskursanalytische Absicht: Texte, die häufig als Medientheorien bzw. medientheoretische Ansätze erörtert werden, werden hier als utopische Entwürfe und damit als eine spezifische Form der Selbstbeschreibung von Gesellschaft gelesen. Dies ist eine grundlegende Vorentscheidung, aus der dann folgt: Uninteressant ist in diesem Zusammenhang die Frage, ob solche utopischen Entwürfe richtig oder falsch sind, ob sie theoretisch plausibel sind oder nicht. Utopien sind in aller Regel theoriefern und zugleich manchen Phänomenen nahe. Es gehört zu den Auffälligkeiten des 20. Jahrhunderts, dass sich utopische Entwürfe zunehmend an Kommunikationskulturen, genauer: an Medienentwicklungen knüpfen. Die Tradition, dass Utopien mit Technikentwicklungen verbunden werden, reicht zwar bis ins 16. Jahrhundert zu Francis Bacon zurück, aber man muss solche Technikutopien abgrenzen von jenen Utopien, die anlässlich der Entwicklung von Kommunikationsmedien formuliert werden. Die Entwicklung der Telegraphie, des Films und - in den 20er Jahren - des Rundfunks waren Anlass für die Formulierung utopischer Entwürfe, die jeweils in spezifischen Medienkonstellationen fundiert sind. Solche Entwürfe, die von der konstitutiven Funktion von Medien für jede Art von Zukunftsüberlegung ausgehen, lassen sich als Medienutopien begreifen. Vorgestellt werden soll vor allem Vilem Flussers Konzept der telematischen Gesellschaft, die - so eine Kernthese von Flusser - eine auf Arbeit gegründete Gesellschaft ablöst. Die Gesellschaft der Zukunft, so Flusser, definiert sich im kreativen Spiel und nicht länger in der Arbeit. Er greift damit die in den frühen 60er Jahren formulierte Kritik von Hannah Arendt an der Arbeitsgesellschaft auf und geht davon aus, dass eine solche Kritik angesichts der Medienentwicklung gegenstandslos werden wird. Am Ende des Beitrags soll Pierre Levys Konzept einer "kollektiven Intelligenz" vorgestellt werden, das er in seiner "Anthropologie des Cyberspace" entwickelt
- Series
- Schriftenreihe der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft; Bd.28
- Source
- Kommunikationskulturen zwischen Kontinuität und Wandel: Universelle Netzwerke für die Zivilgesellschaft. Hrsg.: U. Maier-Rabler u. M. Latzer
-
Mayer, M.: Kontextvisualisierung : BrowsingIcons and BrowsingGraphs zur Verbesserung der Orientierung und Navigation im World Wide Web (2000)
0.01
0.009169876 = product of:
0.036679503 = sum of:
0.036679503 = weight(_text_:und in 651) [ClassicSimilarity], result of:
0.036679503 = score(doc=651,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32416478 = fieldWeight in 651, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=651)
0.25 = coord(1/4)
- Abstract
- Zunächst werden neun unterschiedliche Umgebungen bzw. Kontexte von Webseiten eingeführt. Jeder Kontext soll die Orientierung und Navigation bezüglich eines bestimmten Aspekts ermöglichen. Der Linkkontext einer bestimmten Webseite besteht beispielsweise aus den Webseiten und Links, die von dieser Seite aus über eine definierte Anzahl von Links erreichbar sind. Die Darstellung dieses Kontexts soll die Orientierung und Navigation unter dem Aspekt der Links, des assoziativen Umfelds dieser Seite verbessern. Die Aspekte, unter denen die Kontexte die WWW-Benutzung verbessern sollen, betreffen entweder die Struktur, die Benutzung oder den Inhalt der Webseiten. Damit die Kontexte die gewünschte Wirkung erzielen können, muß ein Benutzer sie wahrnehmen können. Dazu wird eine neue Visualisierungstechnik vorgestellt: das Verfahren der BrowsingIcons und BrowsingGraphs. Während der Navigation im WWW entstehen wiedererkennbare, visuelle Zeichen für einzelne Sessions (Benutzersitzungen). Man kann schnell erkennen, wo man sich gerade innerhalb des jeweiligen Kontexts befindet (Orientierung). Ferner kann man direkt über mehrere Links hinweg einzelne Webseiten ansteuern (Navigation). Frühere Sitzungen können an der charakteristischen Form der BrowsingIcons erkannt werden. Die Metapher biologischer Kulturen wird auf BrowsingGraphs übertragen. Durch "Impfen" von "Nährlösungen" können Suchanfragen intuitiv gestellt werden. Die Ergebnisse kann man später "ernten"
- Source
- Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
-
Zylka, J.: Pornostralien (2002)
0.01
0.009169876 = product of:
0.036679503 = sum of:
0.036679503 = weight(_text_:und in 2078) [ClassicSimilarity], result of:
0.036679503 = score(doc=2078,freq=14.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.32416478 = fieldWeight in 2078, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2078)
0.25 = coord(1/4)
- Abstract
- Dass Sex sells, ist bekannt. Dass Sex vielleicht auch ein paar desinteressierte Filous zum Bibliotheksbesuch animieren könnte, das probiert gerade die australische Nationalbibliothek in Canberra (www.nla.gov.au) aus. Seit den 70ern des letzten Jahrhunderts kann man in einer ehrwürdigen Sammlung Hetero- und Homosexuelles finden: von dem um 1900 entstandenen Foto der "Naughty Gerti" in weißen Stiefeln über einen 1953er "Whip-Strip", dem Peitschenstrip einer Vaudeville-Darstellerin, bis hin zu australischen Mops-Magazinen mit geschmackvollen Namen wie "Big'n'Bouncy". Und weil die Bibliothek sich in ihrem Bemühen, den nachfolgenden Generationen alles über die Menschen und ihre schwierigen Angewohnheiten in Sachen Wollust zu vermitteln, ganz modern präsentiert, möchte der Internet-Bibliothekar Edgar Crook die poppige Sammlung gern noch um ein paar Porno-Websites erweitern.Die Schnelligkeit, mit der das Netz sich die Pornografie - oder umgekehrt - angeeignet habe, sei nämlich nichts anderes als das Verhältnis zwischen Erotik und dem im 19. Jahrhundert noch neuen Medium Fotografie, erklärt der Bibliothekar. Schließlich sei es wichtig, dass die Bibliothek dieses Material sammle, natürlich nicht "für das schlüpfrige Vergnügen des Besuchers, sondern als Indikator für soziale Sitten, sozialen Standard und die öffentliche Einstellung zu sexuellen Themen". Warum auch nicht. Ob man nun hinguckt oder es bleiben lässt: Sex per Klick passiert in unserer Gesellschaft. Und könnte es nicht sein, dass sich das Internet mit seinen meist zweidimensionalen rechnerbegrenzten Darbietungen vielleicht irgendwann einmal in etwas Anderes, Unaussprechliches wandelt? Eine von jedem begehbare virtuelle Welt zum Beispiel, aus der dann kopfschüttelnd auf die kleinen, schlecht aufgelösten ComputerPornobildchen des 21. Jahrhunderts und die sich schier ewig runterladenden, vorsintflutlichen, teuren Filmehen zurückgeblickt wird? Dann klickt man - aus reinem sozialen Interesse, versteht sich - die entsprechenden Websites noch mal so gerne an.