-
Causemann, N.; Vogel, I.: ¬Die Virtuelle Fachbibliothek Recht : Konzept, Module, Ausblick (2005)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 4404) [ClassicSimilarity], result of:
0.042612392 = score(doc=4404,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 4404, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Abstract
- Seit 1975 betreut die Staatsbibliothek zu Berlin im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Systems der Überregionalen Literaturversorgung das Sondersammelgebiet (SSG) Rechtswissenschaft. Mit über 900.000 Bänden an Monographien, Zeitschriften, Gesetzesblättern und Entscheidungssammlungen verfügt die Staatsbibliothek heute über eine der größten Sammlungen an juristischen Quellen und Sekundärliteratur in Deutschland. Aufgabe der SSG-Bibliotheken war und ist es, konventionelle fachwissenschaftliche Literatur umfassend zu erwerben, zu erschließen und für die überregionale Literaturversorgung zur Verfügung zu stellen. Seit Ende der neunziger Jahre betreibt die DFG die Weiterentwicklung des SSG-Systems zu einem Netzwerk Virtueller Fachbibliotheken (ViFa), die in der Regel an der entsprechenden SSG-Bibliothek aufgebaut werden. Innerhalb der Virtuellen Fachbibliotheken wird der ursprüngliche Sondersammelgebietsauftrag auf fachwissenschaftliche Publikationen und Informationen ausgeweitet, die in digitaler Form produziert werden, also auch auf den gesamten Bereich des Internets. Inzwischen gibt es mehr als 25 von der DFG geförderte Virtuelle Fachbibliotheken. Einige sind noch im Aufbau, andere haben den Projektstatus bereits verlassen und befinden sich im Routinebetrieb.
-
Beckedahl, M.: Online-Kampagnen : Das Netz als Forum politischer Öffentlichkeit (2005)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 4497) [ClassicSimilarity], result of:
0.042612392 = score(doc=4497,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 4497, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4497)
0.25 = coord(1/4)
- Abstract
- Das Internet bietet neue Möglichkeiten, politische Kampagnen mit wenigen Mitteln zu realisieren. Bürgerinitiativen und Nichtregierungsorganisationen (NGO) nutzen mittlerweile ebenso das Netz, um auf ihre Anliegen aufmerksam zu machen, wie Parteien und Firmen. Eine der erfolgreichsten Netzkampagnen der letzten Jahre war zweifellos die Howard-Dean-Kampagne im US-amerikanischen Vorwahlkampf der Demokraten: Nie zuvor wurden so konsequent das Inter net eingesetzt und neue Wege ausprobiert. Gerade die Offenheit der Kampagne, in der die Unterstützer über das Internet eingebunden waren und dadurch die Kreativität einer vernetzten Gemeinschaft genutzt wurde, setzte Maßstäbe für künftige Kampagnen. Partizipation und Transparenz wurden zu neuen Leitbildern in Bottum-up-Prozessen, die das Internet ermöglicht. Sie werden die Form von Kampagnen nachhaltig verändern. Als »The Rise of Open Source Politics« bezeichnete Micah L. Sifry in der November-Ausgabe des US-Magazins The Nation die neue Art der Kampagnenführung. Vorbild sind die offenen und kollaborativen Arbeitsstrukturen, die Freie Software wie das Betriebssystem Linux, aber auch die Wikipedia erfolgreich machen.
-
Schreiber, M.: Das Web ist eine Wolke (2009)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 3620) [ClassicSimilarity], result of:
0.042612392 = score(doc=3620,freq=48.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 3620, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3620)
0.25 = coord(1/4)
- Content
- "Auf einem Uralt-PC HD-Videos schneiden, Handys mit 500 GByte Speicherplatz ausstatten, Software und Daten auf jedem beliebigen Computer abrufen - das soll Cloud Computing ermöglichen. Und das alles nur über einen Browser sowie einen schnellen Internetanschluss. Was genau verbirgt sich aber hinter diesem Begriff, der seit Monaten durch die Medien wandert?. CHIP erklärt das Prinzip und verrät, ob Cloud Computing nur ein Hype oder die Zukunft ist. Hardware ade: Die Software läuft in jedem Browser Der Grundgedanke beim Cloud Computing ist, dass alle Anwendungen im Web laufen - von einfacher Software bis hin zu kompletten Betriebssystemen. Der User muss sich keine teure Hardware anschaffen, sich keine Gedanken um die Aktualisierung des Systems machen und auch keine Software mehr kaufen. Das klingt nach Zukunftsmusik, aber die Ansätze sind bereits vorhanden. Google zeigt, wie's geht: Office-Tools, E-Mail-Konten, RSS-Reader, ein Kalender und weitere Programme laufen plattformunabhängig im Webbrowser. Alle Programme und Daten lagern auf den Google-Servern und werden je nach Bedarf geladen. Möglich wird das durch riesige Serverparks von Unternehmen wie Microsoft, Google, Amazon oder IBM: Die Anlagen stellen viel mehr Leistung bereit, als sie verbrauchen können.
Es entsteht Leerlauf, der Geld kostet, ohne Nutzen zu bringen. Um die Rechnerauslastung zu optimieren, bieten die Firmen ihre Rechenpower Privatkunden und Unternehmen an. Ein cleveres Geschäftsmodell, das sich für beide Seiten lohnt. Der einzelne Kunde zahlt nicht für Programmlizenzen oder Server, sondern nur die tatsächlich verbrauchte Leistung - zu Stoßzeiten, kann er flexibel Rechenpower hinzubuchen. Der User nutzt also skalierbare IT-Services. In diesem Netzwerk lassen sich auch diverse Anbieter miteinander verknüpfen. Beispielsweise Amazons virtuellen Speicher "Simple Storage Service" (S3), mit Googles Entwicklungsplattform "App Engine" (GAE). So bestehen die Dienstleistungen aus einer Bündelung verschiedener Angebote, die nach einem Baukastenprinzip funktionieren - eine Wolke (engl. "cloud") aus Servern und Services ensteht. Der Nutzer holt sich jeweils die Leistungen, die er braucht und kombiniert sie nach seinen persönlichen Bedürfnissen. Die Grundlagen: Mehr Leistung durch Zusammenarbeit So angesagt Cloud Computing auch ist - es ist keine neue Erfindung. Sondern vielmehr eine Zusammenführung längst bestehender Techniken. Zu den Voraussetzungen gehören Computercluster, Grid Computing und Utility Computing. Ein Cluster besteht aus einer Reihe von Computern, die untereinander vernetzt sind und somit die Rechenpower erhöhen (High Performance Computing). Außerdem können sie das Risiko eines Datencrashs minimieren, indem ein defekter Server seine Aufgaben auf einen anderen umleitet (High Availability Cluster). Cluster werden häufig auch als Serverparks oder Serverfarmen bezeichnet.
Ein Grid dient hauptsächlich zur Bewältigung rechenintensiver Aufgaben. Der Unterschied zu Clustern: Grids bestehen aus einer losen Verkettung weltweit verstreuter Server, denen sich diverse Institutionen anschließen können. Standardisierte Bibliotheken und Middleware erleichtern die Zusammenarbeit: Die dritte Voraussetzung für das Cloud Computing ist das Utility Computing. Hier bieten Unternehmen Leistungen wie Onlinespeicher, virtuelle Server und Software als gebündelten Service an und rechnen nach verbrauchter Leistung ab. Neue Möglichkeiten: Software nach dem Baukastenprinzip Auf diesen Grundlagen aufbauend entsteht das Cloud Computing. Es verbindet die Komponenten und eröffnet dadurch diverse Möglichkeiten, etwa die "Infrastructure as a Service" (IaaS): Die Betreiber übernehmen die komplette Infrastruktur, etwa virtualisierte Hardware. Diese ist wie bei der"Amazon Elastic Compute Cloud" (EC2) je nach Anforderung skalierbar. Die "Platform as a Service" (PaaS) richtet sich hauptsächlich an Entwickler: Hier stellt der Betreiber kein Enduser-Programm, sondern eine komplette Arbeitsumgebung bereit. So können Software-Anbieter eigene Webapplikationen schreiben und vertreiben. Das wohl bekannteste Beispiel ist die "Google App Engine' die Python als Programmiersprache sowie das Python-Web-Framework "Django" einsetzt. Die fertige Software liegt auf den Servern des Betreibers und benötigt weder eine lokale Installation noch eigene Hardware. PaaS wird daher auch als "Cloudware" bezeichnet.
Der dritte Ansatz des Cloud Computings ist die "Software as a Service" (SaaS): Im Gegensatz zum klassischen Modell, bei dem der Kunde eine Software kauft und sie auf seinem PC installiert, kann der Nutzer die Programme beim SaaS nur "mieten". Die Tools laufen im Browser und sind in der Regel plattformunabhängig. Während der User die Angebote lediglich nutzt, bietet die Verbindung aller Teilbereiche vor allem jungen Start-ups, wesentliche Vorteile: Da sie nicht mehr auf eigene Server angewiesen sind, sinkt der Kostendruck. So ist es möglich, eine Webseite ohne eigene Hardware aufzubauen und bei Bedarf mehr Rechenpower zu mieten. Zehn.de (www.zehn.de) etwa, ist das erste deutsche Portal, das die vernetzten Strukturen des Cloud Computings voll ausschöpft. Während die Entwickler für die gesamte Kommunikation der Seite wie Front- und Backend, Datensätze und -filter auf die Google App Engine setzen, liegt die Software zur semantischen Analyse der Inhalte bei Amazon EC2 und Bilder sowie Videos bei Amazon S3."
-
Heller, L.: Literatur- und Informationsversorgung in der Spitzenforschung (2009)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 9) [ClassicSimilarity], result of:
0.042612392 = score(doc=9,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 9, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=9)
0.25 = coord(1/4)
- Abstract
- Zentrale Erwerbung von wissenschaftlichen Informationsressourcen im Netz der virtuellen Hybridbibliothek der Max-Planck-Gesellschaft »Excellent Information Services for Excellent Research« ist das Motto der Anfang 2007 gegründeten Max Planck Digital Library (MPDL). Diese ambitionierte Leitlinie würdigt die Relevanz eines modernen wissenschaftlichen Informationsmanagements für eine exzellente Spitzenforschung. Mit Gründung der MPDL wurde in der Max-Planck-Gesellschaft (MPG) ein entscheidender Schritt zur zentralen Unterstützung eines bisher weitgehend dezentralen Informationsversorgungsnetzes gegangen. Die Entscheidung zu einer Kombination aus zentraler und dezentraler Informationsversorgung trägt den Veränderungen Rechnung, die sich durch die Möglichkeiten der digitalen Welt ergeben haben. Intention der Neugründung ist jedoch nicht, ein unter der Prämisse der Institutsautonomie etabliertes, wohl durchdachtes Literatur- und Informationsversorgungssystem sukzessive durch eine zentrale Einheit abzulösen, sondern gemäß der Maxime der Subsidiarität Stärken von dezentralen und von zentralen Einheiten zu einem effizienten Gesamtsystem zu ergänzen. Der vorliegende Artikel skizziert das Netz der Informationsversorgung in der MPG mit dem Schwerpunkt auf der Versorgung mit elektronischen Medien des institutsübergreifenden Bedarfs. Dieser Schwerpunkt kennzeichnet eines der Hauptarbeitsfelder der MPDL, deren weitere Services und Arbeitsfelder kontextgebunden und ausgewählt vorgestellt werden sollen?
-
Roesler, A.: Bequeme Einmischung : Internet und Öffentlichkeit (1997)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 175) [ClassicSimilarity], result of:
0.042612392 = score(doc=175,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 175, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=175)
0.25 = coord(1/4)
- Abstract
- Zu den populärsten Mythen um das Internet gehört der von »virtuellen Gemeinschaften« und ihrer segensreichen Auswirkung auf Demokratie und Öffentlichkeit. Die Begeisterung der entsprechenden Mythologen dieser neuen Technologien hat dabei oft eine rückwärtsgewandte Seite. Was Euphorie auslöst, ist nämlich nicht unbedingt das ganz andere, noch nie dagewesene, sondern daß nun das alte - endlich - in verbesserter Form so sein kann, wie es schon immer hätte sein sollen: von allen Mängeln rückständiger Realisierung befreit, ungehinderte Verkörperung der Idee, schließlich zu sich selbst gekommen. Die utopische Dimension neuer Technik liegt sozusagen nicht vor uns, sondern hinter uns, in den Träumen und Idealen der Vergangenheit, die jetzt erst ihren wahren Siegeszug antreten können, weil die Erbärmlichkeit ihrer materiellen Umsetzung überwunden ist. Was bislang die Idee beschmutzt hat, ist von nun an beseitigt, das Altbekannte darf endlich glänzen und leiht nebenbei seinen wärmenden Strahl der Technik, die bescheiden und selbstlos dahinter zurücktritt.
-
Altenhöner, R.; Hannemann, J.; Kett, J.: Linked Data aus und für Bibliotheken : Rückgratstärkung im Semantic Web (2010)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 264) [ClassicSimilarity], result of:
0.042612392 = score(doc=264,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 264, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=264)
0.25 = coord(1/4)
- Abstract
- Die Deutsche Nationalbibliothek (DNB) hat damit begonnen, ihre Wissensbasis bestehend aus bibliografischen Daten einerseits, vor allem aber aus den Normdaten als Linked Data zu veröffentlichen. Ziel der DNB ist es, mit der Publikation der Daten als Tripel eine direkte Nutzung der gesamten nationalbibliografischen Daten und der Normdaten durch die Semantic-WebCommunity zu ermöglichen und damit ganz neue Nutzungsgruppen einzubinden. Gleichzeitig soll aber auch das Tor für einen neuen Weg der kooperativen Datennutzung aufgestoßen werden. Langfristiges Ziel ist es, Bibliotheken und andere kulturelle Einrichtungen als ein verlässliches Rückgrat des Webs der Daten zu etablieren.
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
- Source
- Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
-
Firnkes, M.: ¬Das gekaufte Web : wie wir online manipuliert werden (2015)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 3117) [ClassicSimilarity], result of:
0.042612392 = score(doc=3117,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 3117, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3117)
0.25 = coord(1/4)
- Abstract
- Was wir online lesen und sehen, auf Webseiten, in Blogs und sozialen Netzwerken, das ist immer öfter verfremdet und manipuliert. Gefälschte Inhalte werden genutzt, um versteckte Werbung zu platzieren und Einnahmen zu generieren, aber auch um die öffentliche Meinung zu Gunsten von Interessensverbänden und der Politik zu steuern. Neue Technologien der digitalen Welt befeuern den Trend zu rein künstlich generiertem Content. Wir sind an einem Punkt angelangt, an dem wir uns entscheiden müssen: Zwischen einem "freien" oder einem von kommerziellen Interessen beherrschten World Wide Web. Das Buch deckt auf verständliche Weise die unterschiedlichen Methoden der Manipulation auf. Es zeigt, wie fremdgesteuerte Inhalte alle Internetnutzer betreffen, geht aber gleichzeitig auf mögliche Auswege und Lösungsmöglichkeiten ein. Als Plädoyer für ein nachhaltig unabhängiges Internet.
-
Geiselberger, H. u.a. [Red.]: Big Data : das neue Versprechen der Allwissenheit (2013)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 3484) [ClassicSimilarity], result of:
0.042612392 = score(doc=3484,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 3484, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3484)
0.25 = coord(1/4)
- Abstract
- Der Begriff Big Data hat spätestens in diesem Jahr der Überwachung den Durchbruch geschafft - mit dem Sammelband des Suhrkamp Verlags bekommt nun jedermann den Data-Durchblick. ... Experten aus Theorie und Praxis bringen ihre Erfahrungen und Meinungen im Suhrkamp-Werk kurz und präzise auf den Punkt und bieten damit einen guten Überblick über die Thematik, die gerade erst in den Startlöchern steht.
- BK
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
-
Hermsdorf, D.: Info-Überfluss, Hyper-Konkurrenz, Entortung, digitale Verlustmodelle (2017)
0.01
0.010653098 = product of:
0.042612392 = sum of:
0.042612392 = weight(_text_:und in 4575) [ClassicSimilarity], result of:
0.042612392 = score(doc=4575,freq=12.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.36014193 = fieldWeight in 4575, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4575)
0.25 = coord(1/4)
- Abstract
- Die Gefahr ist seit Jahren erkannt, aber keineswegs gebannt: Internet-Folgen treffen Öffentlichkeit und Arbeitswelt bis ins Mark. Wer darf bei diesem Artikel gähnen? - Nicht einmal der Gemüsehändler, dem künftig Lieferdienste das Wasser abgraben. Nicht der Gitarren-Lehrer, der plötzlich weltweite Konkurrenz erhält. Und erst recht nicht der zu diesem Thema schon häufiger besprochene Journalist, dessen Angebote mit tausendfacher Gratis-Ware im Netz konkurrieren. Digitalisierung, Vernetzung und Automatisierung sind Prinzipien, mit denen verantwortliche Politiker im Lebensalter 40+ weder in ihrem Studium noch einem früheren Berufsleben, so vorhanden, eigene Erfahrungen machten. Vorab dazu dies Wesentliche: Nicht alle absehbaren Entwicklungen sind apokalyptisch. Bei allen Armuts- und Gewaltproblemen im Rest der Welt blinken sie für die Industrienationen geradezu verheißungsvoll, was die Reduktion von körperlicher Belastung und Zeitaufwand der Werktätigen betrifft. Für eine wünschenswerte Realisierung des "Arbeitens 4.0" (so der Titel eines Weißbuchs vom Arbeitsministerium) sind jedoch weitere Paradigmenwechsel in Miteinander und Administration dringend erforderlich, wie gleich zu zeigen.
-
Kaube, J.: Browser, Server, E-Mail gegen Gelbe Seiten, Kühlschrank und Telefon : Lesen und surfen lassen: Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner veranstalten eine Tagung über "21st Century Literacy" in Berlin (2002)
0.01
0.010566435 = product of:
0.04226574 = sum of:
0.04226574 = weight(_text_:und in 1259) [ClassicSimilarity], result of:
0.04226574 = score(doc=1259,freq=68.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3572122 = fieldWeight in 1259, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1259)
0.25 = coord(1/4)
- Content
- "Ohne Telefon werden Sie sich in diesem Jahrhundert nicht zurechtfinden. Wer kein Telefon hat, verliert in der Gesellschaft, die gerade entsteht, den Anschluß. Noch immer aber telefonieren manche Menschen gar nicht oder nur ungern. Telefonieren können, Telefonate richtig einzusetzen und Durchtelefoniertes richtig zu interpretieren, all das ist für die individuelle Leistungsfähigkeit und damit das Wohlbefinden der Menschen entscheidend. Das Telefonieren leistet einen entscheidenden Beitrag zur Demokratie, weil sich die Bürger, seitdem es Telefone gibt, melden können, wann immer sie wollen. Die Forderung des Tages lautet auch darum: Telefone für alle. Hier ist der Staat gefordert, in den Schulen muß Telefonieren auf den Stundenplan, alle Schulen müssen ans Telefon. Dabei muß jeder Bürger wissen, daß auch nach der Schulausbildung lebenslanges Telefonieren für sein Fortkommen von entscheidender Bedeutung sein wird. Man könnte die Telefone in diesen Behauptungen auch durch andere wichtige Geräte wie Uhren oder Automobile ersetzen. Die Behauptungen würden dadurch nicht richtiger und nicht falscher. Irgendwie, so der Eindruck, sind sie richtig. Ohne Telefone, Uhren, Pkw wäre vieles schwieriger und vieles gar nicht möglich. Mit solchen Maschinen umzugehen gehört zum modernen Alltag. Zugleich wirken solche Sätze aber auch ziemlich übertrieben, vor allem wenn sie aus Nützlichkeit und Verbreitung einer einzelnen neuen Technologie auf einen gesellschaftlichen Umbruch schließen. Und gerade weil so viele Technologien inzwischen unentbehrlich geworden sind, läge eine ungeheure Einseitigkeit darin, von unserer Epoche als dem Zeitalter des Telefons, der elektrischen Beleuchtung, dem des Kühlschranks oder dem des Transistors zusprechen. Sobald man die Telefone in jenen Sätzen aber durch das Internet ersetzt, erhält man Formulierungen, die gegenwärtig auch dann nicht mehr begründungsbedürftig sind, wenn sie nur noch aus undurchdachten Übertreibungen bestehen. Sätze, wie sie jetzt auf einer Tagung über "21st Century Literacy", die Bildungserfordernisse der Gegenwart, auf höchster Ebene bekräftigt wurden. Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner hatten Spitzenpersonal aus Wirtschaft, Politik und Erziehung nach Berlin eingeladen, um sich hieran zu beteiligen. Schon zu Beginn des Treffens wurden ihm - so schnell geht es zu im Informationszeitalter - Ergebnisse in Form eines Berichts der Stiftungen über "Bildung im Zeitalter konvergierender Medienwelten" in die Hand gedrückt. Darin finden sich alle Gemeinplätze gegenwärtiger Begeisterung durchs Internet in dankenswerter Komprimierung: Ohne Nutzung des Internets wird sich bald niemand mehr auf dieser Welt zurechtfinden. Die digitale Technik steigert, sofern richtig und umfassend genutzt, unsere Effektivität im Beruf, macht die Politik demokratischer, die Bürger mündiger, erhöht die Lebensqualität, das Wissen und das Wirtschaftswachstum. Das soll das Internet aber nur können, wenn die Bevölkerung noch einmal alphabetisiert wird. Denn angeblich verändern die neuen Informationstechnologien alles, was bisher über Wissen gewußt und über Denken gedacht wurde. Zwar mag der Benutzer jener Informationsmaschinen den eigentlich beruhigenden Eindruck gewonnen haben, mit älteren Kulturtechniken wie Lesen, Schreiben und dem Drücken von merkpflichtigen bunten Knöpfen ganz gut durchzukommen. Aber da täuscht er sich, den Verkäufern dieser Maschinen und ihrer Programme (AOL und Bertelsmann beispielsweise) zufolge. Denn es gibt jetzt viel mehr Grafiken, mehr bewegte Bilder, mehr Datenbanken. Man muß jetzt selbständig recherchieren, kommunikationsfähig sein, problemorientiert lernen. Und man denke: Auch nach dem Schulabschluß muß neuerdings weitergelernt werden.
Alles ändert sich also, dauernd, nur die Reklamesprüche derjenigen, die ihre Produkte damit anpreisen, wer nicht kaufe, bleibe zurück, weil sich ja alles dauernd ändere, bleiben erfreulich wiedererkennbar. Der wichtigste Spruch der Stunde, der sie alle bündelt, fordert "Medienkompetenz". Sie trete neben Lesen, Schreiben und Rechnen als vierte Schlüsselfähigkeit. Die Pisa-Studie wäre insofern unvollständig gewesen, hat sie doch überhaupt nicht untersucht, ob die Kinder auch das Internet richtig - der Bericht vergißt in solchen Zusammenhängen nie das Wort "kritisch" - benutzen können. Weil im Internet angeblich die Informationen auf neuartige Weise mitgeteilt werden, bedürfe es eigener Schulung dafür. Es werde die vordringliche Aufgabe von Erziehung, "den Umgang mit Myriaden von Veränderungen zu vermitteln". Inwiefern stellt aber die "Kenntnis von Browsern, Suchmaschinen, E-Mail" höhere und grundsätzlichere Anforderungen als diejenige von Gelben Seiten, Videorecordern und Bohrmaschinen? Wenn alles so neu, so revolutionär ist, mag man sich überdies fragen, wie etwa die Herren Schulte-Hillen (Bertelsmann), Case (AOL), Schröder (SPD) oder Glotz (SPD) es je vermochten, sich mit ihrer altbackenen Schulbildung, die nur Lesen, Schreiben und Rechnen umfaßte und ganz ohne Netzzugang erfolgte, auf diesen Stand allerneuester Wissensnutzung zu bringen. Oder surfen sie selber gar nicht? Wie aber halten sie dann Schritt mit dem Fortschritt? Gerhard Schröder jedenfalls dachte bei Medienkompetenz auch an das Vermögen, Bilder, vor allem die Wirkung ausgestrahlter Bilder, richtig einzuschätzen. Geschicktes Haarefärben oder entschiedene Handbewegungen beim Reden als Dokumente "visueller Kompetenz" waren freilich auch schon dem Ancien regime geläufig. Schröders Forderung, es solle das Bilderlesen in den Schulen eingeübt werden, stellt trotzdem das Ceterum censeo der Interneteuphoriker dar. Unter respektvoller Miterwähnung des Lesens von Geschriebenem als "immer noch" wichtiger Fähigkeit wird festgestellt: Der, natürlich kritische, Umgang mit Bildern muß eingeübt werden, denn mehr als achtzig Prozent der im Internet mitgeteilten Information liege in Bildform vor. Es wäre interessant zu wissen, wie weit bei solchen Berechnungen der Informationsbegriff gefaßt worden ist und ob er auch Bilder von Popstars und anderem Vernügungspersonal miteinschließt. Immerhin sollen nach wie vor "MP3" und "Sex" die häufigsten Suchwörter von Netzbenutzern sein.
- Footnote
- Den Schulen fehlen vielerorts die Mittel, um die Wände zu streichen, und die Lehrer, um regelmäßigen Unterricht zu gewährleisten - aber der Kanzler spricht im Verein mit den Wirtschaftsinteressenten davon, daß um der Medienkomptenz willen auch noch im letzten Klassenzimmer ein Computer stehen muß, wenn die Kinder eine Chance haben sollen. Der Stiftungsbericht warnt gar vor "sozialer Isolation", wenn nicht alle Schüler über die nötige Technik verfügten. Von ähnlicher pädagogischer Dignität sind Behauptungen wie die, "mit Hilfe der interaktiven Medien" könnten "Kinder heute die eigene Art des Lernens bestimmen". Unter den Teilnehmern des Podiums zu Bildungsfragen behielt angesichts solch erregender Aussichten nur die luxemburgische EU-Kommissarin für Bildung und Kultur, Viviane Reding, die Nerven und wies darauf hin, daß nach den Befunden der PisaStudie erst einmal für die alte Alphabetisierung gesorgt werden müsse. Neben den Schulen stellen sich die Medienkonzerne vor allem staatliche Verwaltungen als zweiten großen Kundenkreis vor. Dafür werden Worte wie "e-Government" geprägt. Gegen Steuererklärungen und Autozulassungen, die auf elektronischem Wege abgesandt werden, ist - von Datenschutzfragen vielleicht abgesehen - wohl so wenig einzuwenden wie gegen übersichtliche Websites von Behörden. Doch ähnlich wie in Bildungsfragen wird auch hier der Bürger für naiv gehalten, wenn er zusätzlich zu solchen technischen Erleichterungen gleich eine ganze Ideologie der Partizipation und Emanzipation durch PC-Benutzung mitübernehmen soll. Besonders tat sich hierbei in Berlin AOL-Chef Steve Case hervor. Die "digitale Demokratie" werde zu größerer Toleranz unter besser informierten Bürgern führen, die sich nun über alles, was sie angeht, mit ihren Nachbarn unterhalten könnten und endlich produktiv teilnehmen am öffentlichen Leben. Man durfte auch hier darüber nachdenken, welche ungeheueren Demokratisierungsschübe im zwanzigsten Jahrhundert vom Telefonieren ausgelöst wurden. Daß Diktatoren und Amnesty International, Pflanzenschützer und Kinderpornographen vom Internet profitieren, ist allzu offensichtlich, als daß man jemandem länger zuhören sollte, der das Gegenteil zur Prämisse seiner interessierten Euphorien macht."
-
Baumgärtel, T.: "Mosaic" der Datenwelt : Vor zehn Jahren erschien der erste einfache Webbrowser - und damit die Grundlage für den Erfolg des Internets (2003)
0.01
0.010566435 = product of:
0.04226574 = sum of:
0.04226574 = weight(_text_:und in 5700) [ClassicSimilarity], result of:
0.04226574 = score(doc=5700,freq=68.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3572122 = fieldWeight in 5700, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5700)
0.25 = coord(1/4)
- Content
- "Kornfelder. Nichts als Kornfelder, so weit das Auge reichte. Das sah Tim Berners-Lee aus dem Autofenster, als er auf dem Weg zum National Center of Supercomputing Applications (NCSA) in Urbana-Champaign zum ersten Mal in seinem Leben durch Illinois fuhr. Ein Elite-Informatik-Institut ist so ziemlich das Letzte, was man indem landwirtschaftlich geprägten amerikanischen Bundesstaat im mittleren Westen erwarten würde. Doch das NCSA spielt in der kurzen Geschichte des Internets eine entscheidende Rolle. An dem kaum bekannten Forschungsinstitut wurde vor zehn Jahren ein Computerprogramm entwickelt, dessen Bedeutung Technikhistoriker schon jetzt mit der der Dampfmaschine; oder des Telefons vergleichen: Am 22. April 1993 veröffentlichten Studenten und Mitarbeiter im Internet den Webbrowser "Mosaic" - eine Software, mit der man durch das Netz surfen kann. Auch wenn das Programm einer Öffentlichkeit jenseits von Informatikern und Netzfreaks unbekannt sein dürfte, ist seine Bedeutung gar nicht zu überschätzen: Vor "Mosaic" gab es auf der ganzen Welt einige hundert Websites, Ende 1993 waren es bereits einige tausend, und in den nächsten Jahren sollte sich ihre Zahl manchmal im Wochenrhythmus verdoppeln. Der Siegeszug des Internets begann mit "Mosaic". Das Programm hat das Internet zu einem Massenmedium gemacht. Ohne "Mosaic" gäbe es heute keine Online-Publizistik und keinen E-Commerce, kein Amazon und kein E-Bay. Nach einem halben Jahr hatten eine Million Internet-Surfer das Programm heruntergeladen. Heute finden sich Nachfolgerprogramme wie der "Netscape Navigator" oder der "Internet Explorer" auf so gut wie jedem Computer mit Internet-Anschluss. Schöpfer der historischen Software waren der Student Marc Andreessen und der wissenschaftliche Mitarbeiter Eric Bina: In einem Keller des NCSA hatte sie mit einigen Kommilitonen in nächtelangen Programmier-Sessions die erste Version von "Mosaic" geschrieben. Diese Leute wollte Tim Berners-Lee im März 1993 treffen, denn er war selbst der Schöpfer des World Wide Web (WWW): 1990 hatte der britische Physiker am Kernforschungszentrum Cern in Genf einige technische Regeln definiert, die es leichter machen sollten, im Internet, einem damals noch weitgehend unbekannten akademischen Computernetzwerk, Informationen zu veröffentlichen und zu lokalisieren. Das Web erfreute sich unter Wissenschaftlern schnell einer gewissen Beliebtheit, aber die Programme, mit denen man sich im WWW bewegte, waren für Laien zu schwierig und konnten nur Text anzeigen. "Mosaic" dagegen wurde per Mouse-Klick bedient und zeigte Bilder und Grafiken. Darauf hatte Berners-Lee schon seit einiger Zeit gewartet. Denn der Wissenschaftler mit dem bescheidenen, ja fast schüchternen Auftreten hatte eine große Vision: Er wollte aus dem Internet "ein einzigartiges, universelles und leicht zu bedienendes Hypertext-Medium machen, mit dem man jede Art von Information teilen kann, wie er später in Vorträgen und Interviews immer wieder betonte. Darum hatte er in der Anfang der 90er Jahre noch kleinen und unüberschaubaren InternetSzene geduldig und mit viel Diplomatie darauf hingearbeitet, dass sein Internet-Code namens Hypertext Markup Language (HTML) als Quasi-Standard für Daten im Web akzeptiert wurde. Nachdem ihm das gelungen war, musste nun ein Programm her, das die Daten lesen konnte. Berners-Lee unterstützte die Programmierer der ersten viel versprechenden Browser -"Cello", "Arena" oder "Lynx" - per E-Mail. Die Gruppe aus dem NSCA dagegen hatte es Anfang 1993 ganz unabhängig von ihm geschafft: ein Programm für das Internet, das nicht nur Informatiker bedienen konnten! Wie ein Besessener schrieb Andreessen, der sich zeitweise von Milch und Keksen ernährte, mit seinen Kommilitonen an immer neuen und verbesserten Versionen von "Mosaic".
Das Treffen mit Andreessen, Bina und den anderen verlief weit weniger herzlich, als Berners-Lee es erwartet hatte. In seinen Memoiren Weaving the Web vergleicht er das Meeting mit einer Pokerpartie: Die NCSA-Gruppe, so sein Eindruck, wollte seine Idee an sich reißen und versuchte, den Eindruck zu erwecken, das Web und "Mosaic" seien ein und dasselbe. Der bullige Andreessen erschien Berners-Lee wie ein Geschäftsmann, der vor allem Kundenwünsche befriedigen wollte. Berners-Lee empfahl bei dem Treffen, "Mosaic" einen Editor hinzuzufügen, mit dem man selbst Webseiten gestalten konnte. Denn Teil seiner Hoffnungen für das Internet war, dass man nicht nur passiv durch Informationen surfen, sondern auch selbst produzieren und mit anderen Internet-Usern kooperieren konnte. Andreessen lehnte das schlicht ab; Berners-Lee war enttäuscht. Besonders verärgert hat es ihn aber offenbar, dass Andreessen sich weigerte, sich bei einer Konferenz für ein Erinnerungsbild fotografieren zu lassen. Der Eindruck, dass es Andreessen vor allem ums Geschäft ging, hat Berners-Lee nicht getrogen. Ein knappes Jahr später gründete der junge Programmierer mit dem Silicon-Valley-Veteranen Jim Clark eine Firma namens Netscape, und zusammen mit den meisten seiner ehemaligen NCSA-Kollegen entwickelten sie in Kalifornien den ersten kommerziellen Browser. 1995 legte die Firma den erfolgreichsten Börsengang hin, den die Wall Street bis dahin gesehen hatte, und der Internet-Goldrausch der 90er Jahre begann. Der US-Softwarekonzern Microsoft hatte den Netz-Boom zunächst ignoriert, entwickelte dann aber mit dem "Internet Explorer" einen eigenen Browser und nutzte seine Herrschaft über die Betriebssysteme dazu aus, um schnell eine marktbeherrschende Position zu erreichen. Netscape wurde vom Markt verdrängt; AOL kaufte das Unternehmen - und Andreessen verließ die Firma kurz danach. Heute ist er Chef eines kalifornischen Unternehmens namens Oopsware, das Server-Software anbietet. Wahrscheinlich war es das Zusammenspiel von zwei so unterschiedlichen Charakteren wie Berners-Lee und Andreessen, das zum Erfolg des Web beigetragen hat. Während der Wissenschaftler Berners-Lee auf Offenheit und Zugänglichkeit bedacht war und sich dafür einsetzte, dass das Web nicht von einer bestimmten Nutzergruppe übernommen wurde, ging es dem Programmierer-Geschäftsmann Andreessen um Benutzerfreundlichkeit und kommerziellen Erfolg. Der US-Journalist Steven Levy hat "Mosaic" das "wahrscheinlich wichtigste Programm, das es jemals gab", genannt. Er hat Recht. Der Browser und die anderen, die folgten, haben unser Bild vom Computer verändert: Aus der Maschine für Textverarbeitung und Spiele wurde ein Kommunikationsinstrument, das den Zugang zu ständig neuen Informationen brachte. Andreessen ist darüber bis heute begeistert: "Das Beste an der ganzen Sache war zu sehen, wie wir ein paar Bausteine zusammenfügten, die sich andere Leute nahmen und daraus Dinge entwickelten, die wir nie erwartet hätten. Der Prozess, der sich schnell vollkommen unserer Kontrolle entzog, war sehr befriedigend." Marc Andreessen hat dabei gut verdient. Auf dem Höhepunkt der Dot-com Euphorie besaß er Netscape-Aktien im Wert von 80 Millionen Dollar und gilt noch heute als Multimillionär. Tim Berners-Lee hat vom Netz-Boom weniger profitiert. Er leitet heute das World Wide Web Consortium in Boston, das für die Einhaltung von Programmierstandards für das Web eintritt. Was er machen würde, wenn er plötzlich doch Millionär würde? Wahrscheinlich würde er ein Stück Land kaufen, das von Umweltzerstörung bedroht sei, vertraute er dem britischen Guardian nach einigem Nachdenken an. Vielleicht sehnt er sich ja nach Kornfeldern."
-
Kerkmann, C.: Nicht das wahre Leben : Nach dem großen Rummel um das virtuelle "Second Life" (2008)
0.01
0.010460237 = product of:
0.04184095 = sum of:
0.04184095 = weight(_text_:und in 2387) [ClassicSimilarity], result of:
0.04184095 = score(doc=2387,freq=34.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.35362202 = fieldWeight in 2387, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2387)
0.25 = coord(1/4)
- Content
- "Erst bestaunt und bejubelt, dann verrissen und vergessen: «Second Life» hat eine erstaunliche Medienkarriere hinter sich. Vor einem Jahr erreichte der Hype um die virtuelle Welt seinen Höhepunkt.Heute ist klar: Das «zweite Leben» ist noch nicht das Pixelparadies, bietet aber einen Ausblick darauf, wie das Internet in einigen Jahren aussehen könnte. «Second Life» ist eine dreidimensionale Welt - bunt, detailgetreu und von den Nutzern selbst gestaltet. Um mit dem eigenen Doppelgänger (Avatar) dabei zu sein, braucht man nicht mehr als einen schnellen Internetanschluss, einen guten Computer und die kostenlose Software. Wer Grundstücke oder Kleidung kaufen will, muss allerdings echtes Geld gegen virtuelle Linden-Dollar tauschen. Seit Juni 2003 online, rückte die Plattform Anfang 2007 in den Blickpunkt einer breiten Öffentlichkeit. Fast täglich erschienen Berichte: über die erste virtuelle Stadt und das erste virtuelle Konzert, über die erste Zeitung und das erste Unternehmen in der 3D- Welt, über Rollenspiele und Cybersex. Befeuert vom Medienhype schoss die Nutzerzahl in die Höhe: von einer Million im November 2006 auf mehr als fünf Millionen im Juni 2007. Doch die mediale Begeisterung kühlte sich ab. Zum einen meldeten sich viele Neugierige an, nutzten ihren Avatar aber nie wieder. Dazu trugen nicht zuletzt häufige Programmabstürze und die ruckelige Grafik bei. Zum anderen wurde klar, dass sich die Parallelwelt mit realen Problemen plagen musste. Die Staatsanwaltschaft Halle ermittelte etwa wegen der Verbreitung von Kinderpornografie, Firmen verklagten Nutzer wegen Fälschungen von Markenprodukten.
Es ist mittlerweile stiller geworden um die 3D-Welt. Doch Philip Rosedale, Gründer der Betreiberfirma Linden Lab aus San Francisco, ist überzeugt: «Wir sind immer noch am Anfang.» Er weiß um technische Probleme, weist aber darauf hin, dass die Entwicklung der virtuellen Umgebung sehr komplex sei. Noch im ersten Halbjahr 2008 werde man die Zahl der Abstürze deutlich senken und die Grafik-Software verbessern. Fachleute bestätigen, dass die Software zuverlässiger geworden ist. Mittlerweile sind 11,7 Millionen Menschen registriert, mehr als 500 000 davon melden sich nach Betreiberangaben pro Monat tatsächlich an und verbringen durchschnittlich 29 Stunden online. Damit ist «Second Life» nicht entvölkert, aber auch längst nicht so groß wie etwa die sozialen Netzwerke StudiVZ und Facebook mit Millionen aktiver Nutzer. Immerhin: Betreiber Linden Lab arbeitet nach eigenen Angaben mit seinen 250 Beschäftigten profitabel. Für viele ist die Plattform längst mehr als ein Spiel - Universitäten und Unternehmen, Künstler und Kreative haben sie entdeckt. Christoph Lattemann von der Universität Potsdam lädt beispielsweise ein zum Online-Seminar «E-Commerce in virtuellen Welten» - E-Learning an der Hochschule. Die Avatare der Studenten sitzen auf einer Treppe, während zwei Kommilitonen eine Präsentation halten. Danach wird diskutiert, dank Sprachfunktion der Software in Echtzeit. «Bei den Studenten kommt die Veranstaltung gut an», sagt der Dozent.
Zahlreiche Unternehmen und Organisationen nutzen die Plattform fürs Marketing - Geld verdienen sie damit aber nicht. «Im Moment sind wir in einem Experimentierstadium», sagt Manfred Heinze, dessen Agentur TextLab PR-Konzepte für «Second Life» entwickelt und die größte deutsche Kolonie «Apfelland» mitträgt. Die bisherigen Aktivitäten seien trotzdem keine Geldverschwendung, sondern wichtige Erfahrungen. Denn 3D-Welten böten im Vergleich zum Internet echten Zusatznutzen: «Wer sich für ein Auto interessiert, setzt sich rein und guckt, wie das Armaturenbrett aussieht», nennt er ein Beispiel. Das Internet wird mehr und mehr zu einer virtuellen Welt, da sind sich die Experten sicher. «Es kann sein, dass die Plattform 'Second Life' irgendwann tot ist - die Idee dahinter wird sich durchsetzen», ist Lattemann überzeugt."
-
Internet : Grundlagen, Technik, Anwendungen (1997)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 4072) [ClassicSimilarity], result of:
0.04181583 = score(doc=4072,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 4072, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4072)
0.25 = coord(1/4)
- Content
- ALTMANN, O. u. S. PÖHL: Information Retrieval im Internet: Bekannte Suchdienst und ihre Eigenschaften; AUER, J.: Bibliothekskooperation bei der Erschließung des Internet; BABIAK, U.: Mit einem eigenen Server im Internet: Aufbau und Betrieb populärer Internet-Dienste; BEST, H.: Den Onlinern auf der Spur: das Internetprojekt BINE in der Stadtbibliothek Bremen; CREMER, M.: Schwer im Kommen: Elektronische Bibliotheken - national und international; DUGALL, B.: Elektronische Dokumentlieferung via Internet; GUSIK, A.: Die spezifischen Probleme einer kleinen Bibliothek, die Internet anbieten will; SCHMID, C.: Einführung in das Web-Design: Gestaltung von Informationsangeboten für das World Wide Web; HOMMES, K.P. u. F. UNTIEDT: Bibliothekskataloge und Bibliotheksverbünde im Internet; KEIPER, K.: Die Nutzung von Internet an der Auskunft der Bibliothek Konstanz: ein Erfahrungsbericht; KRÄMER, M.: Die gebräuchlichsten Internet-Anwendungen und Protokolle - eine allgemeine Einführung; KUBICEK, H.: Internet und Bibliotheken - eine gesellschaftliche Herausforderung; LEHMANN, K.: Vor dem Start ins Internet: Hardware - Software - Telekommunikation; LOBECK, M.A.: "Aber keine Angst...": Literatur zum Internet - Einführungen, Nachschlagewerke, Spezialthemen; MÜLLER, H.: Die rechtlichen Espekte des Internet für Bibliotheken; OßWALD, A.: Pauschale Internet-Kompetenz ist nicht genug: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der Fachhochschule Köln - Inhalte und Erfahrungen; RAUMEL, F.: Internetkurse im Medien- und Informationszentrum Biberach: Schulungsinhalte für Einsteiger - ein Praxisbericht; PLUTAT, B.: "Zwei Leben, um alle Seiten anzuschauen...": oder Der Nutzer braucht eine gute Inhaltserschließung; RUSCH-FEJA, D. u. R. BERTELMANN: Informationsretrieval im Internet: Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote; SAUER, C.D.: "Search, don't surf!": FirstSearch in der Zentralbibliothek Berlin (ZLB) - ein unverzichtbares Auskunftsmittel; SCHAARWÄCHTER, M.: Die Nutzung der elektronischen Kommunikation in Bibliotheken; SOETHE, F.: Intranet: Bedeutung, Praxis, Sicherheit, Kosten und Anwendungen in Bibliotheken; ULRICH, P.S.: Die Antwort ist irgendwo das draußen ...: Kooperative Auskunft mit der MailingListe 'Stumpers-L' - Arbeitsweise und Erfahrungen; VONHOF, C.: Internet als politischer Auftrag ... - und was dann? Bedingungen und Erfahrungen bei der Einführung des Internet in der Stadtbibliothek Göppingen; STIEGLITZKI, S. u. M. BRAUN: Internet: Das dreistufige Schulungskonzept der Bücherhalle Harburg
-
¬Das Internet vergrößert die Wissenskluft (2001)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 6951) [ClassicSimilarity], result of:
0.04181583 = score(doc=6951,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 6951, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6951)
0.25 = coord(1/4)
- Abstract
- Das Internet spaltet die Gesellschaft: Die Kluft zwischen gut informierten Viellesern und passiven Medienverweigerern wächst mit dem neuen Medium schneller. Die neueste Studie der Mainzer Stiftung Lesen über das Leseverhalten der Deutschen ist ein weiterer Beleg für dieses Phänomen, das die Fachleute "Wissenskluft" nennen. Das Phänomen ist nicht neu, Kommunikationsforscher warnen schon seit Jahren davor. Doch mit der rasanten Verbreitung des Internets gewinnt der Prozeß an Dynamik. Auf der einen Seite des Grabens stehen gut informierte Menschen, die viel und regelmäßig lesen und neben gedruckten auch die elektronischen Medien wie Radio, Fernsehen und Internet ausgiebig nutzen. Auf der anderen Seite stehen Menschen, die selten ein Buch oder eine Zeitung in die Hand nehmen und sich vom Fernsehen lieber berieseln als informieren lassen. Wer aber in der neuen Medienwelt dabei sein will, muß viel Geld ausgeben. Wissenschaftler wie der Medienforscher Siegfried Weischenberg warnen daher vor einer Teilung der Gesellschaft in zwei Gruppen: Die einen, die sich den Anschluß ans digitale Zeitalter leisten können, und die anderen, die den Anschluß verlieren. Weischenberg erklärt: "Die Gefahr einer Wissenskluft ist groß. Bei zunehmender Bedeutung der neuen Medien profitieren diejenigen, die ohnehin schon privilegiert, wohlhabend und gebildet sind. Die Übrigen drohen zu Verlierern der Informationsgesellschaft zu werden. " Nach einer Studie der Gesellschaft für Konsumforschung (GfK) verdienen über die Hälfte der deutschen OnlineNutzer mehr als 4 000 Mark netto im Monat. Wissen läßt sich als die Fähigkeit eines Menschen begreifen, selbst etwas in Gang zu setzen. Im digitalen Zeitalter ist die Kompetenz bei der Auswahl, Bewertung und zweckorientierten Nutzung der hiformationen, die entscheidende Schlüsselqualifikation für den Wissenserwerb. Nur wer über diese "Medienkompetenz" verfügt, ist in der Lage, der sogenannten Informationsflut zu begegnen. Nur der kann gewonnene Erkenntnisse in soziales und politisches Handeln einfließen lassen. Die so gern attestierte "digitale Spaltung" der Gesellschaft tritt dabei nicht nur als eine materielle Frage des Zugangs auf, sondern vor allem als eine soziale und kulturelle Frage der Aneignung neuer Medien durch ihre Nutzer. Daher entscheiden soziale Herkunft, Bildungsgrad, Geschlecht und Alter über Informationsarmut oder -reichtum. Das bestätigt auch ein Bericht der OECD. Er faßt die Ergebnisse sechsjähriger Studien in 20 Ländern zusammen ("Literacy In The Information Age"). Dazu hatte man eine repräsentative Auswahl der Erwerbsbevölkerung in ihrem Heim geprüft. Es sollte festgestellt werden, ob die Befragten die nötigen Kompetenzen besitzen, um in der "Wissensökonomie" von morgen effizient und erfolgreich zu sein. Die OECD spricht von der "ersten zuverlässigen und international vergleichbaren Studie" dieser Art
-
Haber, P.; Hodel, J.: ¬Die History Toolbox der Universität Basel : Wie die Kulturwissenschaften mit dem Traum von der Bibhotheca Universalis umgehen (2004)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 4156) [ClassicSimilarity], result of:
0.04181583 = score(doc=4156,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 4156, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4156)
0.25 = coord(1/4)
- Abstract
- Die letzten Jahre waren von einem rasanten Wandel im Bereich der Medien und der Kommunikation geprägt. Was anfänglich ein von militärischen Interessen inspiriertes technisches Kommunikationsmittel war und Mitte der neunziger Jahre einen wirtschaftlichen Boom grösseren Ausmasses ausgelöst hatte um schliesslich an der Schwelle zum neuen Jahrtausend eine realistischere Einschätzung zu erfahren, ist heute schlicht Teil unseres Alltages geworden: das Internet. Die Hälfte der schweizerischen Bevölkerung gehört mittlerweile zu den regelmässigen oder unregelmässigen Internet-Usern (Stand anfangs 2001), eine von drei Personen surft mehrmals pro Woche im World Wide Web. Auch die Wissenschaft ist von dieser Entwicklung nicht unberührt geblieben: Eine der umfassendsten Analysen zu diesem Thema legte Michael Nentwich im Auftrag des Instituts für Technikfolgenabschätzung der Österreichischen Akademie der Wissenschaften und dem Max-Planck-Institut für Gesellschaftsforschung in Köln 1999 vor. Nentwich geht von der These aus, dass die Informations- und Kommunikationstechniken "einige Rahmenbedingungen und praktisch alle Formen wissenschaftlicher Tätigkeit betreffen". Involviert sind (respektive werden sein) die Formen der wissenschaftlichen Kommunikation und die Wissensvermittlung, aber auch der organisatorische Rahmen des Wissenschaftsbetriebes und die Art und Weise der Wissensproduktion. Diese Veränderungen, so Nentwich weiter, werden nicht nur - wie heute zumeist angenommen - die Kommunikation beschleunigen, sondern sie haben "das Potential zu qualitativen Veränderungen des Wissenschaftssystems". Dass die Auswirkungen dieses Wandels höchst vielfältig sind, zeigt ein Blick in die Flut neuer und neuester Studien und Stellungnahmen zu diesem Thema. Die breit angelegte SteFi-Studie (Studieren mit elektronischen Fachinformationen) zum Beispiel kam zu folgendem Schluss: Die Informationskompetenz der meisten Studierenden ist unzureichend; sie empfinden das Angebot elektronischer Informationen als unübersichtlich und sehen sich ausserstande, die Qualität der Ergebnisse zu bewerten. Gleichzeitig hielt die SteFi-Studie auch fest, dass das Internet zunehmend zum Informationsmedium Nummer 1 bei der Suche nach wissenschaftlicher Literatur geworden ist.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Wirtz, B.: Deutschland online : unser Leben im Netz (2008)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 5729) [ClassicSimilarity], result of:
0.04181583 = score(doc=5729,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 5729, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5729)
0.25 = coord(1/4)
- Abstract
- Die Entwicklung des Internets ist vor allem durch eines gekennzeichnet: Geschwindigkeit. Nicht nur, dass es in kurzer Zeit zum neuen Massenmedium geworden ist. Ein schnelleres Internet mit immer weiter steigenden Bandbreiten bringt auch nachhaltige Veränderungen in Wirtschaft und Gesellschaft. Der Einfluss des breitbandigen Internets auf das tägliche Leben wird in der Studienreihe "Deutschland Online" untersucht. Dabei werden der Status Quo und die Perspektiven des Mediums sichtbar gemacht. Im Jahr 2003 startete die Studienreihe mit einer Bestandsaufnahme der Bedeutung des Internets in Deutschland. In den folgenden Jahren stand eine gesamtgesellschaftliche Betrachtung des Themas Breitband-Internet, die breitband-basierte Informationsgesellschaft sowie zukünftige Tendenzen auf dem deutschen und globalen Breitband-Markt im Vordergrund. Aktuelle Aspekte der Informationsgesellschaft und des Breitband-Internets in der der Triade Europa, USA und Asien wurden im Jahr 2006 betrachtet. In jedem Jahr stammen die Ergebnisse aus einer kombinierten Befragung von Experten und Nutzern. Die Studienreihe wird seit 2003 von Professor Wirtz begleitet. Die aktuelle Studie "Deutschland Online - Unser Leben im Netz" untersucht die aktuellsten Trends und Zukunftsmärkte rund um das breitbandige Internet. Die Themenschwerpunkte liegen auf stationären und mobilen Breitband-Internetthemen sowie dem Zusammenwachsen von Festnetz, TV, Breitband und Mobilfunk. Deutschland Online kombiniert die aktuellen Trendentwicklungen und die Marktsicht in einer Studie.
- Content
- "Kernaussagen - Die besondere Bedeutung der Informationstechnologie und Telekommunikation wird in den nächsten Jahren deutlich zunehmen. Bis zum Jahr 2015 soll sich der aktuelle Anteil am Bruttoinlandsprodukt auf fast 12 Prozent nahezu verdoppeln. - Die Zahl der Breitband-Anschlüsse wird erheblich ansteigen. Im Jahr 2010 sollen bereits über 21 Mio. Anschlüsse vorhanden sein und im Jahr 2015 mehr als 29 Mio. Anschlüsse. Das bedeutet, dass über 80 Prozent aller deutschen Haushalte 2015 einen Breitband-Anschluss haben werden. - Die starke Zunahme der Leistungsfähigkeit in Form der Bandbreiten wird sich bis 2015 fortsetzen. - Kommunikation, Unterhaltungsangebote und der E-Commerce werden zukünftig die wichtigsten Nutzungsformen im Breitband-Internet sein.
-
Möller, E.: ¬Die heimliche Medienrevolution : wie Weblogs, Wikis und freie Software die Welt verändern (2006)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 267) [ClassicSimilarity], result of:
0.04181583 = score(doc=267,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 267, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=267)
0.25 = coord(1/4)
- Abstract
- Medien bedeuten Macht. Kann das Internet Bertelsmann, Time Warner und Rupert Murdoch gefährlich werden? Großunternehmen versuchen auch die neuen Medien zu kapitalisieren, doch im globalen, dezentralen Kommunikationsnetz gelten andere Spielregeln. Auf der Basis freier Software, die von jedem kostenlos verändert und kopiert werden kann, entstehen völlig neue Medienformen. Millionen von "Weblogs" genannten Online-Postillen ergänzen die klassische Medienlandschaft um unabhängige Stimmen. Erste Experimente mit cleveren Finanzierungsmodellen zeigen, dass auf dieser Basis auch echter Journalismus möglich ist. Gleichzeitig arbeiten Tausende von Freiwilligen an offenen Wissensdatenbanken wie der gigantischen Enzyklopädie Wikipedia. Eine Konvergenz von Wikis und Weblogs zeichnet sich ab. Massive Online-Zusammenarbeit in den Bereichen Nachrichten, Wissen, Kunst und Kultur scheint unausweichlich oder findet bereits statt. Das revolutionäre Potenzial des Internet, das erst übertrieben, dann belächelt wurde, nimmt Konturen an. Dieses Buch erfasst den aktuellen Stand der Entwicklung, wagt einen vorsichtigen Blick in die Zukunft und liefert das notwendige Grundwissen zur direkten Partizipation an der neuen Medienwelt.
- Classification
- MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
- Issue
- 2., erw. und aktualisierte Aufl.
- RVK
- MS 7850 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations]
AP 18420 [Allgemeines # Medien- und Kommunikationswissenschaften, Kommunikationsdesign # Arten des Nachrichtenwesens, Medientechnik # Internet]
-
Mythos Internet (1997)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 162) [ClassicSimilarity], result of:
0.04181583 = score(doc=162,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 162, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=162)
0.25 = coord(1/4)
- Abstract
- Internet heißt das derzeit wichtigste Symbol der technologischen Entwicklung des ausgehenden 20. Jahrhunderts. Wer bereits connected ist, ahnt, wie wenig Geheimis sich tatsächlich hinter dem Schleier verbirgt. Der erste Rausch ist dahin, und es ist an der Zeit, einen unverstellten Blick auf die Chancen und Risiken der Netzwelten zu werfen. Der Band versammelt Beiträge von Autoren, die sich aus verschiedenen Perspektiven philosophischer, ökonomischer, politischer und kultureller Fragen dem Phänomen der neuen Netzwelt nähern. Gedacht als kritische Ein- und Weitertührung, richten sich die Beiträge an all jene, welche die Gegenwart besser verstehen wollen.
- BK
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
- Content
- Inhalt: William J. Mitchell - Die neue Ökonomie der Präsenz - Bausteine der Netztheorie Jay D. Bolter: Das Internet in der Geschichte der Technologien des Schreibens - Mike Sandbothe: Interaktivität - Hypertextualität - Transversalität. Eine medienphilosophische Analyse des Internet - Sybille Krämer: Vom Mythos »Künstliche Intelligenz« zum Mythos »Künstliche Kommunikation« oder: Ist eine nicht-anthropomorphe Beschreibung von Internet-Interaktionen möglich? - Stefan Münker: Was heißt eigentlich: »virtuelle Realität«? Ein philosophischer Kommentar zum neuesten Versuch der Verdopplung der Welt - Die Idee virtueller Gemeinschaften Steven Jones: Kommunikation, das Internet und Elektromagnetismus - Mark Poster: Elektronische Identitäten und Demokratie - Alexander Roesler: Bequeme Einmischung. Internet und Öffentlichkeit - Rudolf Maresch: Öffentlichkeit im Netz. Ein Phantasma schreibt sich fort - Digitale Märkte Saskia Sassen: Cyber-Segmentierungen. Elektronischer Raum und Macht - Alexandra Vitt: Zukunftsvision Cybergeld: Finanzdienste und ihre Netzerfahrung - Gerhard Schub von Bossiazky: Perspektiven für die neuen Online-Vertriebswege - Günter Müller - Das Internet als Experimentierfeld für moderne Telekommunikationsinfrastrukturen - Netzkultur Eduardo Kac: Das Internet und die Zukunft der Kunst - Uwe Wirth - Literatur im Internet. Oder: Wen kümmert's, wer liest? - Geert Lovink und Pit Schultz: Anmerkungen zur Netzkritik - Florian Rötzer - Virtueller Raum oder Weltraum? Raumutopien des digitalen Zeitalters
-
Willkommen in der Datenwelt! : Haben wir unser digitales Leben noch im Griff? (2017)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 4420) [ClassicSimilarity], result of:
0.04181583 = score(doc=4420,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 4420, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4420)
0.25 = coord(1/4)
- Abstract
- Ständig hinterlässt jeder von uns zahlreiche digitale und digitalisierbare Spuren. Algorithmen sammeln diese Daten, lernen, sie zu interpretieren, und können so mehr über den Einzelnen offenbaren, als dieser über sich selbst weiß. Staaten und Konzerne wollen Menschen mit diesen Informationen überwachen und manipulieren - vermeintlich zu ihrem Besten. Doch wer entscheidet, was das ist? Mit den Verlockungen der Informationsgesellschaft von erhöhter Leistung und Lebensqualität kommen auch Bedrohungen für unsere Freiheit und Privatsphäre. Wie schützen wir diese Grundwerte in einer Welt, in der praktisch alles gespeichert und ausgewertet wird, und wie gewinnen wir die Kontrolle über unser digitales Ich zurück? Dieses Sonderheft will Anregungen zur Diskussion dieser Fragestellungen geben. Ein Teil der Beiträge ist hervorgegangen aus den Vorträgen des 20. Berliner Kolloquiums der Daimler und Benz Stiftung, das 2016 stattfand. (17. Februar 2017)
- Content
- Digital-Manifest (I): Digitale Demokratie statt Datendiktatur: Es droht die Automatisierung der Gesellschaft. (S.6) - Digital-Manifest (II): Eine Strategie für das digitale Zeitalter: Wie können wir unsere Demokratie schützen? Digital-Manifest: Expertenkommentare(S.15) - Die Debatte über mögliche Gefahren geht weiter. Essay: Was ist uns die Privatsphäre wert? (S.18) - Wer uneingeschränkt persönliche Informationen preisgibt, liefert sich aus. Datenschutz: Die Folgen der digitalen Transparenz (S.20) - Neuen Organisationsformen gehört die Zukunft. Epidemiologie: Eine Diagnose der Menschheit (S.28) - Mit einem Supercomputer stellen Forscher den globalen Gesundheitszustand fest. Maschinelles Lernen: Intelligenz bei Mensch und Computer (S.32) - Im Gegensatz zu uns lösen Algorithmen meist nur sehr spezielle Probleme - zumindest bislang. Ethik: Wir müssen autonome Killerroboter verbieten (S.40) - Maschinen überblicken nicht die Folgen ihres Tuns. Big und Smart Data: Zweckbindung zwecklos? (S.48) - Die Weiterverwendbarkeit von Daten stößt an Grenzen. Datensparsamkeit: Zukunftsfähig statt überholt (S.56) - Die Weiterverwendbarkeit von Daten stößt an Grenzen. Informationelle Selbstbestimmung: Ein erstrebenswertes Ziel (S.62) - Persönliche Entfaltung muss möglich bleiben. Digital Dienste: Zwischen Innovation und Sicherheit (S.68) - Schutz- und Kontrollbedarf fördert das Nutzervertrauen. Privatsphäre: Interview "Jede Äußerung wird konserviert" (S.74) - Sammelwut bedroht uns alle, meint Markus Beckedahl. (S.78)
-
Seemann, M.: ¬Die Macht der Plattformen : Politik in Zeiten der Internetgiganten (2021)
0.01
0.010453957 = product of:
0.04181583 = sum of:
0.04181583 = weight(_text_:und in 1554) [ClassicSimilarity], result of:
0.04181583 = score(doc=1554,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.3534097 = fieldWeight in 1554, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1554)
0.25 = coord(1/4)
- Abstract
- Plattformen sind mehr als Unternehmen, sie sind die Herrschaftszentren unserer Zeit. Facebook, Google und Amazon ersetzen Marktplätze und öffentlichen Räume, doch sie entscheiden darüber, wer sich dort aufhalten darf und welche Regeln gelten. Von Staaten sind sie kaum zu kontrollieren, sie agieren selbst wie welche. Mehr noch: Plattformen stellen gängige Konzepte von Kapitalismus, Eigentum und Demokratie in Frage. Michael Seemann zeigt, was Plattformen ausmacht, woher ihre Macht kommt, wie sich mit ihnen umgehen lässt und welche Zukunft sie haben
- BK
- 05.20 Kommunikation und Gesellschaft
- Classification
- AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
05.20 Kommunikation und Gesellschaft
- RVK
- AP 14150: Kommunikation und Politik / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign
AP 15950: Beziehungen, Ausstrahlungen, Einwirkungen / Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign