-
Suche 3.0 (2009)
0.01
0.010792267 = product of:
0.043169066 = sum of:
0.043169066 = weight(_text_:und in 185) [ClassicSimilarity], result of:
0.043169066 = score(doc=185,freq=6.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33954507 = fieldWeight in 185, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=185)
0.25 = coord(1/4)
- Abstract
- Die großen Suchmaschinen Bing und Google durchsuchen in Zukunft auch die sozialen Netzwerke Twitter und Facebook. Damit beginnt die nächste Generation derInternetsuche. Der Nachrichtenfluss wird noch rasanter.
- Footnote
- Weitere Artikel auf S.2-3: Berberich, C.: Wie das Netz zwitschert - Beuth, P.: Kurz und fündig - Beuth, P. u. V. Funk: Ein Artikel, der nie fertig wird
-
Pauls, N.; Griesbaum, J.; Mandl, T.: Erfolgsfaktoren kirchlicher Community-Angebote im Social Web : eine Analyse des Wikis "Evangelisch in Niedersachsen" (2011)
0.01
0.010792267 = product of:
0.043169066 = sum of:
0.043169066 = weight(_text_:und in 234) [ClassicSimilarity], result of:
0.043169066 = score(doc=234,freq=6.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33954507 = fieldWeight in 234, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=234)
0.25 = coord(1/4)
- Abstract
- Vorliegender Artikel behandelt anhand einer Untersuchung des Wikis "Evangelisch in Niedersachsen" die Frage von Erfolgsfaktoren kirchlicher Social Media Angebote. Hierzu werden Bewertungskriterien aus der Literatur erarbeitet und auf die Fallstudie "Evangelisch in Niedersachsen" angewendet. Dabei werden statistische Nutzungsdaten ausgewertet sowie eine Expertenanalyse und eine Nutzerbefragung durchgeführt. In der konkreten Fallstudie werden die Ergebnisse zur Erarbeitung von Empfehlungen zur Optimierung des Kirchen-Wikis genutzt.
- Source
- Information - Wissenschaft und Praxis. 62(2011) H.1, S.19-27
-
Morozov, E: Smarte neue Welt : digitale Technik und die Freiheit des Menschen (2013)
0.01
0.010792267 = product of:
0.043169066 = sum of:
0.043169066 = weight(_text_:und in 4005) [ClassicSimilarity], result of:
0.043169066 = score(doc=4005,freq=24.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33954507 = fieldWeight in 4005, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4005)
0.25 = coord(1/4)
- Abstract
- Ein renommierter junger Autor zerpflückt kompetent die Dogmen des digitalen Zeitalters Dem Silicon Valley verdanken wir die technischen Errungenschaften, die unsere Welt so ganz anders machen, als sie einst war. Mehr noch, die Vordenker aus den Eckbüros von Google, Apple und Facebook lieferten die dazugehörige Philosophie gleich mit - und wir alle haben sie verinnerlicht. Das Internetzeitalter gilt als epochaler Einschnitt. Die digitale Revolution stellt die Daseinsberechtigung althergebrachter Strukturen und Institutionen infrage. Politik, Wirtschaft, Kultur und unsere Lebenswege sind heute transparent, individualisiert und jederzeit abrufbar. Evgeny Morozov hinterfragt diese smarte neue Welt mit Verve. Ist sie wirklich besser, sicherer, lebenswerter? Evgeny Morozov entlarvt diese digitale Utopie in seinem weitgreifenden Werk als gefährliche Ideologie. Durch die Brille der digitalen Utopisten sehen wir ineffizient, unberechenbar und ungenügend, kurz: nicht optimiert aus. Wir sind nicht smart genug. Und die Lösung für dieses vermeintliche Problem heißt: mehr Technik - mehr Daten, mehr Algorithmen, mehr Kontrolle. Mit »Smarte neue Welt« drängt Morozov darauf, diese Brille abzusetzen und differenziert darüber nachzudenken, wie wir das digitale Universum mit unserem analogen Dasein sinnvoll in Einklang bringen und Demokratie, Kreativität und Selbstbestimmung retten können.
- Issue
- Aus dem Engl. von Henning Dedekind und Ursel Schäfer.
-
Schrenk, P.: Gesamtnote 1 für Signal - Telegram-Defizite bei Sicherheit und Privatsphäre : Signal und Telegram im Test (2022)
0.01
0.010792267 = product of:
0.043169066 = sum of:
0.043169066 = weight(_text_:und in 1487) [ClassicSimilarity], result of:
0.043169066 = score(doc=1487,freq=6.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33954507 = fieldWeight in 1487, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1487)
0.25 = coord(1/4)
- Abstract
- Während der Messenger-Dienst Signal von Größen wie Edward Snowden empfohlen wird, steht der Telegram-Messenger immer häufiger in Kritik. Die IT-Sicherheitsexperten der PSW GROUP www.psw-group.de haben beide Messenger-Dienste auf Usability, die AGBs und die Sicherheit geprüft.
-
Becht, S.: ¬Das Linux des Wissens : Richard Stallmann plant eine frei zugängliche Enzyklopädie (2001)
0.01
0.0107076205 = product of:
0.042830482 = sum of:
0.042830482 = weight(_text_:und in 6635) [ClassicSimilarity], result of:
0.042830482 = score(doc=6635,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33688194 = fieldWeight in 6635, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6635)
0.25 = coord(1/4)
- Abstract
- Er gilt als Gründungsvater der OpenSource-Bewegung: Der Programmierer Richard Stallmann kündigte 1984 seinen Angestellten-Vertrag und widmete sich frei verfügbarer Software. Damit legte er auch die Grundlage für das Erfolgsprojekt Linux. Nun startet Stallman ein weiteres ProJekt: eine Internet-basierte Enzyklopädie. GNUPedia ist die Bezeichnung für das elektronische Lexikon, das das Wissen der Welt im Internet zusammentragen möchte. Zur schreibenden Hilfe aufgerufen sind alle, die einen Beitrag leisten möchten besonders Akademiker, Lehrer, Studenten und Schüler. Was nicht heißt, jeder könnte beliebigen Unfug veröffentlichen: Die Artikel werden gegenseitig begutachtet oder von Zertifizierungsstellen beglaubigt. Unterschiedliche Beiträge oder Meinungen zu einem Thema stehen aber unzensiert nebeneinander. Die in Englisch verfassten Artikel sollen nach und nach in andere Sprachen übersetzt werden. In seiner Grundphilosophie ähnelt das GNUPedia-Projekt der Open-Source-Bewegung für Software. So unterliegt die Enzyklopädie keinerlei Zugangsbeschränkungen, auch nicht finanzieller Art. Sie wird dezentral verwaltet. Beiträge dürfenjederzeit zitiert und sogar ohne Einschränkung komplett kopiert werden - jedoch stets mit einem Herkunftsnachweis versehen. Und natürlich soll die freie Enzyklopädie eine Alternative zu den eingeschränkten Werken anbieten, die von Medien-Unternehmen geschrieben beziehungsweise herausgebracht werden", erklärt Stallman. Natürlich ist das Ganze ein Mammutprojekt. Doch der Initiator hat es nicht besonders eilig. ,Small steps will do the job", kleine Schritte tun es auch, sagt er. Und wenn es 20 Jahre dauere, sei das auch in Ordnung. Stallman weiß, was er tut. Denn zwei wesentliche Dinge könnten seine freie, universelle Enzyklopädie zum Linux des Wissens werden lassen. Erstens gibt er dem Weh zurück, was das Web in seinem Wesen ist. Denn die funktionale InternetOberfläche ist nicht nur geeignet, um Inhalte zu offerieren, wie es die meisten Anbieter mehr oder minder gut auf ihren Sites probieren. Das WWW ist auch ein idealer Marktplatz für Ideen, Inhalte und Beiträge. So entstanden nach und nach Communities. Die haben im Internet Tradition, etwa in Form der Diskussionsforen des Usenets, und werden derzeit mit so genannten Web-Logs wiederbelebt. Zweitens hat Stallman seit Jahrzehnten Erfahrung im vernetzten, weltweiten Arbeiten. Ähnlich einem Redakteur für Lexika oder Dokumentationen beim Schreiben und Prüfen eines Artikels, ist der Mann bei der Programmier-Arbeit zu korrektem, verifizierbarem und zertifizierbarem Handeln geradezu gezwungen. Noch dazu, wenn, wie bei ihm, nach der Methode der offenen Quellen gearbeitet wird. Wie so etwas praktisch zu handhaben ist, lässt sich auf www.nupedia.com von Lawrence M. Sanger und Jimmy Wales schon bewundern. Bei Nupedia sind 150 Artikel von etwa hundert Wissenschaftlern in Arbeit. Auch dort wird penibel auf Qualität geachtet: Die Autoren müssen ausgewiesene Fachleute auf ihrem Gebiet sein. Jede Geschichte lesen mindestens drei andere Koryphäen gegen, und dann begutachten die 3000 kostenlos registrierten Nupedia-Mitglieder die Einträge. Erste Texte lassen sich schon nachlesen - siehe da: Das Wir-helfen-und-achten-uns-gegenseitig-Prinzip funktioniert. Nach anfänglichen Ressentiments sieht es nun so aus, als würden GNU Pedia und Nupedia im Web zusammenwachsen. Die Abkürzung GNU steht für GNU's Not Unix". Sie stammt aus dem Jahre 1984, als Stallman, nach langer Arbeit mit freier Software, die meisten Kollegen an die langsam boomende PC-Industrie verlor. Der Programmierer begann, ohne zu wissen, ob es überhaupt möglich sein würde, ein neues, freies Betriebssystern für Computer zu programmieren: GNU. Alle Codes für das Unix-kompatible System lagen und liegen offen und werden von einer nun weltweit vernetzten Community ständig benutzt, verändert und verbessert. GNU umfasst heute eine Reihe von freier Software, die meist mit der Offene-Quellen-Methode entstanden ist. Das bekannteste Beispiel ist Linux von Linus Torvald - der Kern des alternativen Betriebssystems. Die im Web populärste GNU-Anwendung dürfte wohl Gnutella (www.gnutella.co.uk, www.gnutellanews.com) sein, die nach dem Peer-to-peer-Prinzip organisierte Musiktauschbörse. Im Gegensatz zu dem bekannteren und vereinnahmenden Napster ist Gnutella auf keinen zentralen Rechner angewiesen, der (Musik-) Dateien bereitstellt. Im Gnutella-Netz ist jeder eingeloggte Rechner Teil des Netzwerks, Geber und Nehmer in einem, und damit nicht mehr zentral, wie beim proprietären Napster, zu kontrollieren oder abzuschalten
-
Beuth, P.: Kurz und fündig : Microsoft setzt jetzt auf Kurzmeldungen (2009)
0.01
0.0107076205 = product of:
0.042830482 = sum of:
0.042830482 = weight(_text_:und in 190) [ClassicSimilarity], result of:
0.042830482 = score(doc=190,freq=42.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33688194 = fieldWeight in 190, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=190)
0.25 = coord(1/4)
- Content
- "Das große Gerangel um die Suchmaschine der Zukunft geht in die nächste Runde. Erst gab Microsoft am gestrigen Donnerstag bekannt, künftig auch die Nachrichten von Twitter- und Facebook-Nutzern in seine Suchergebnisse aufzunehmen. Und nur wenige Stunden später verkündete Google, einen ganz ähnlichen Deal mit Twitter abgeschlossen zu haben. Der mit Facebook könnte bald folgen. Die Konkurrenten integrieren damit in ihre Suchergebnisse, was sie bislang nicht hatten: die Echtzeit-Suche. Google-Vizepräsidentin Marissa Mayer nennt in einem Blog-Eintrag selbst ein Beispiel: "Wenn Sie das nächste Mal nach etwas suchen, bei dem Echtzeit-Beobachtungen hilfreich sind - sagen wir aktuelle Schneebedingungen in Ihrem Lieblings-Skigebiet - werden Sie bei Google auch Twitter-Einträge von Leuten finden, die bereits in dem Gebiet sind und von dort die neuesten Informationen verbreiten." Bei Twitter und Facebook, wo Millionen Nutzer zu jeder Zeit neue Nachrichten zu jedem beliebigen Thema verfassen, kommt bislang keine Suchmaschine mit. So schnell, wie in den Netzwerken etwas Neues veröffentlicht wird, ist keiner der Roboter, die für Google und Microsofts Suchmaschine Bing die Inhalte des Internets durchstöbern.
Profitieren können alle Beteiligten - Beide Unternehmen brauchen diese Daten aber, weil sich das Suchverhalten der Menschen ändert. Der Harvard-Professor Urs Gasser hat festgestellt, dass junge Internetnutzer die Relevanz einer Information "weniger an der Quelle" messen als daran, "was in ihrer Facebook-Gruppe gelesen und geschrieben wird." Anders ausgedrückt: Sie lassen nicht mehr Nachrichtenseiten oder Google-News entscheiden, was die wichtigsten Themen der Stunde sind, sondern ihre Freunde und Bekannten im Netz. Und die verbreiten ihre Favoriten eben über Facebook oder auch Twitter. In den Netzwerken kursieren vor allem auch Informationen, die bislang unter der Wahrnehmungsschwelle der Suchmaschinen liegen, weil sie nur für einige wenige Menschen und eine begrenzte Zeit interessant sind und deshalb keine entsprechende Internet-Präsenz haben. Zwar kann man auch auf twitter.com die aktuellen Einträge, sogenannte Tweets, nach Begriffen durchsuchen. Doch als eigenständige Suchmaschine ist Twitter der breiten Masse der Internetnutzer nahezu unbekannt. Zudem ist die Auflistung der Suchergebnisse streng chronologisch und zeigt damit viele nutzlose Informationen an. Die erste Betaversion von Bing sortiert die Tweets schon jetzt um einiges intelligenter (weiteres nach dem Seitenwechsel unten). Profitieren können von den Deals alle Beteiligten. Die Suchmaschinen können mehr und vor allem brandaktuelle Informationen anzeigen und werden damit für Werbekunden, die neben diese Suchergebnissen angezeigt werden wollen, interessanter. Denn auf twitter.com selbst gibt es bislang keine Werbung. Das Netzwerk selbst - wie auch Facebook - ist seit seiner Gründung ein Geschäft ohne Geschäftsmodell und auf wohlwollende Geldgeber angewiesen. Die Kooperation mit Google und Microsoft dürfte an sich schon mal eine größere Summe in die Kassen spielen, auch wenn sich bislang keines der Unternehmen dazu äußern will. Wahrscheinlich werden Twitter und Facebook aber auch an den Werbeeinnahmen beteiligt, die die Suchmaschinen mit den neuen Inhalten generieren. Außerdem werden die Netzwerke aufgewertet, weil sie ihre Reichweiten steigern und auch Nicht-Mitglieder erreichen.
Wie genau eine Suche nach Tweets über eine Suchmaschine aussehen wird, kann man bislang nur bei Microsoft in einer Betaversion unter bing.com/twitter sehen. Das Fachblog Search Engine Land erklärt den Ablauf: An oberster Stelle befindet sich ein Feld mit den derzeit meistdiskutierten Begriffen bei Twitter. Das ist ein erster Gradmesser für die Relevanz eines Themas. Wer dann einen Suchbegriff eingibt, etwa "Dan Brown", bekommt zwei Felder angezeigt. In einem stehen die jüngsten Twitter-Einträge, die sogenannten Tweets, zum Thema Dan Brown. Die jüngsten heißt im besten Fall: veröffentlicht vor einer Minute. Im zweiten Feld stehen die wichtigsten Links zum Thema Dan Brown, die aktuell über Twitter verbreitet werden. Entscheidend für die Qualität der Suchergebnisse ist der Filter von Microsoft. Die Suchmaschine durchwühlt nicht selbst alle Twitterprofile, sonder Twitter liefert in Echtzeit alle veröffentlichten Tweets an Bing über eine Art Standleitung. Dort werden zunächst möglichst alle Duplikate und nicht jugendfreien Inhalte aussortiert. Dann wird ein Ranking erstellt. Kriterien für die Filter sind die Popularität des Twitterers (abzulesen an der Zahl seiner Beobachter, der sogenannten Follower), die Zahl der Weiterleitungen (Retweets) und die Aktualität des Tweets. Das alles dauert noch einige Sekunden. In einer ausgereiften Version aber soll sie in der Lage sein, das millionenfache Gezwitscher nutzerfreundlich und ohne Verzögerung zu sortieren."
-
Körkel, T.: Internet für Hörer aller Fakultäten (2002)
0.01
0.010665045 = product of:
0.04266018 = sum of:
0.04266018 = weight(_text_:und in 2219) [ClassicSimilarity], result of:
0.04266018 = score(doc=2219,freq=60.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33554244 = fieldWeight in 2219, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2219)
0.25 = coord(1/4)
- Abstract
- "Mit achtzigprozentiger Wahrscheinlichkeit wurde O. J. Simpsons Frau von ihrem Mann ermordet, und der Beschuss der chinesischen Botschaft im Kosovo-Krieg beruhte höchstwahrscheinlich, nämlich zu 85 Prozent, auf Vorsatz. Reine Vermutungen, geschätzt nach Pi mal Daumen? Nein, solche Wahrscheinlichkeiten lassen sich rechnerisch herleiten. Da nützt es nichts, dass Simpsons Anwalt vor Gericht zutreffend anführt, dass nur einer von tausend Männern, die ihre Frau regelmäßig schlagen, sie auch ermordet. Entscheidend ist die Frage, bei wie vielen ermordeten Frauen, die regelmäßig von ihrem Mann geschlagen wurden, der Mann auch der Täter war. Und im Falle der chinesischen Botschaft bleibt nur wenig Raum für vage Mutmaßungen, wenn man alle Faktoren veranschlagt - wie die Zahl aller Häuser in Belgrad, die Zahl der für einen Beschuss in Frage kommenden Ziele, die Zahl der Geschosse sowie die Vorab-Einschätzung des Vermutenden über die Bereitschaft der Amerikaner, die Botschaft zu beschießen. Mit zahlreichen Fallbeispielen beschreiben die Autoren, beide Physiker und Professoren am Fachbereich Medizin der Universität Hamburg, verblüffende Folgerungen aus der Wahrscheinlichkeitslogik. Die vertraute Wenn-dann-Logik ist auf viele Sachverhalte nicht anwendbar. Erst dadurch, dass ein "wahrscheinlich" in die Rechnung einbezogen wird, kann man alle Faktoren ins Kalkül ziehen - und bekommt daraufhin völlig andere Ergebnisse. Welche Irrtümer und Fehlschlüsse entstehen können, wenn nur einige dieser Zutaten außer Acht bleiben, zeigen die Autoren für die verschiedensten Lebensbereiche. Stück für Stück widerlegen sie unsere für sicher geglaubten Meinungen. In witzigen und spannenden Geschichten führen sie uns von Wettervorhersagen und Bilanzmanipulationen über Börsenbewegungen bis hin zu ihrem Hauptanliegen: der "Lebenslüge der medizinischen Forschung". Es geht um Fehlschlüsse, die durch falsche Interpretationen medizinischer Tests und Studien entstehen. Üblicherweise werden in Doppelblindversuchen Therapien an Patienten getestet und die jeweils positive oder negative Wirkung erfasst. Bei der statistischen Auswertung einer solchen Studie gestehen sich die Forscher sogar eine geringe Irrtumswahrscheinlichkeit zu. Eine Grundfrage aber fehlt: Wurde überhaupt eine bessere Therapie-Idee untersucht?
Das Buch verdeutlicht das mit einem Angelbeispiel: In einem Teich gibt es zwei Arten Fische, die begehrten Leckerellen und die ungenießbaren Ekelitzen. Um die Wirksamkeit eines Angelköders für Leckerellen zu testen, hängt man ihn ins Wasser und zählt, wie viele Fische jeder Art anbeißen. Weiß man dann, ob und wie sehr die Leckerellen den Köder mögen? Beileibe nicht. Es kommt darauf an, wie viele Fische der einen und der anderen Art überhaupt im Teich sind. Möglicherweise schwimmt dort gerade keine einzige Leckerelle, also beißt auch keine an; man angelte dann nur Ekelitzen, die den - vielleicht für Leckerellen hervorragenden - Köder nur in der Not fressen. Welchen Wert hat also die reine Zählmethode, um eine Aussage über die Qualität des Köders zu bekommen? Auf medizinische Studien übertragen: Wie aussagefähig ist ein Studienergebnis, wenn Therapie-Köder ausgelegt werden, ohne zu wissen, wie viele IdeenFische überhaupt im Forschungsmilieu schwimmen? Eine weitere Schwierigkeit kommt hinzu: Die Wahrscheinlichkeit von guten Ideen für neue Therapien ist nicht bekannt. Man könnte sie höchstens subjektiv schätzen (Vorschlag der Autoren: zwei Prozent). Weil sie also fast nicht quantifizierbar ist, darf sie, so argumentieren die Statistiker, bei der Bewertung wissenschaftlicher Ergebnisse auch nicht veranschlagt werden. Denn Subjektivität soll in der Forschung möglichst ausgeschlossen bleiben. Folglich wird der Faktor IdeenWahrscheinlichkeit ganz aus der Fragestellung und der statistischen Auswertung ausgeklammert. Das Problem existiert also offiziell gar nicht, obwohl es den Fachleuten bekannt ist. Das Buch bietet vergnüglichen Lesestoff als Verpackung für wissenschaftskritischen Zündstoff: Die Autoren weisen nach, dass randomisierte Studien überflüssig oder sogar schädlich sind. Sie zeigen, dass viele der "wissenschaftlich nachgewiesen besseren Therapien" nicht besser und vielfach sogar schlechter sind als das, was sie verbessern sollen. Alles, was man wissen muss: Ein texanischer Universitätsrechner gewährt Zutritt zu den heiligen Hallen der Online-Bildung. Der Online-Boom der 1990er Jahre beförderte auch akademische Bildungsinhalte ins Netz. Das große Projekt einer virtuellen Universität hat sich zwar bislang in finanziellen, technischen und konzeptionellen Unzulänglichkeiten verfangen. Aber die (reale) Universität von Texas in Austin bietet seit 1994 einen Wegweiser zu Online-Vorlesungen aus aller Welt, den sie ständig aktualisiert: den "Welthörsaal" (http:// wnt.cc.utexas.edu/~wlh). In über neunzig natur- und geisteswissenschaftlichen Fächern, von Astronomie über Anthropologie, Geschichte und Religion bis hin zur Zoologie, können Internet-Surfer weit reichende Studien treiben. Ausdauer ist gefragt: So mancher Mausklick fördert nicht viel mehr als Vorlesungspläne zu Tage oder fordert kostenpflichtige Registrierungen. Häufig dienen die Seiten auch nur als Ergänzung zu einer Präsenzvorlesung. Wer trotzdem dranbleibt, den belohnt die Suchmaschine der World Lecture Hall mit faszinierenden Links auf umfassende Text- und Bildersammlungen, abgerundet mit Filmen, Sprachsequenzen und interaktiven Anwendungen. Eine Online-Einführung in die Chemie bietet zum Beispiel www.scidiv.bcc.ctc.edu/ wv/101-online.html. Fachlich anspruchsvoll und dennoch verständlich ist auch http://simons.hec.utah.edu/ TheoryPage/index.html: Jack Simons, theoretischer Chemiker aus Utah, leitet die rasant wachsende Bedeutung seines Fachgebiets aus dessen Funktion als Schnittstelle zwischen Chemie, Mathematik, Physik und Computerwissenschaften ab. Bunt und bewegt geht es in der "Chemist's Art Gallery" (www.csc.fi/them/gallery.phtml) zu, die auch die Links zur Molekül-"Kunst" auf dieser Seite lieferte. Ein reiches Sortiment interaktiver Animationen etwa zur Molekulardynamik stellt einige Ansprüche an die heimische Hardware.
Ähnlich spektakulär und informativ präsentieren sich auch die Astronomen: Ihr schier unerschöpflicher Fundus von Bildern und Filmen macht das "elektronische Universum" auf http://zebu.uoregon.edu ebenso einen Klick wert wie die Geschichte von "Geburt und Tod der Sterne" auf demselben Server (http://zebu.uoregon.edu/~js/astl22). Schnell gerät der Wissensdurstige auf reizvolle Seitenpfade, denn viele Vorlesungen glänzen mit sorgfältig zusammengestellten Linklisten. Die führen zum Beispiel zu den "Chemischen Briefen" Justus von Liebigs, wie sie im 19. Jahrhundert zunächst als Wissenschaftskolumne in der Augsburger Allgemeinen Zeitung erschienen (www.liebig-museum.de/chbriefe/homepage.htm). Selbst die Alchemie - neunzig ansprechend präsentierte Megabyte auf www.alchemywebsite. com - verleitet zum Verweilen. Historisches ist, weil nicht stets aktualisierungsbedürftig, ohnehin beliebt im Netz. So wartet etwa die Universität Groningen (Niederlande) mit einem voluminösen Hypertext auf, praktisch ein komplettes Lehrbuch der amerikanischen Geschichte mit Texten, Essays und Präsidentenbiografien (http://odur.let.rug.nl/usanew). Noch weiter zurück in die Vergangenheit reicht eine Anthropologen-Website über den Ursprung des Menschen (www.geocities.com/Athens/Acropolis/5579/TA.html). Verspieltere Naturen werden dort zuerst fossile Schädel zuzuordnen versuchen ("Name That Skull") oder einem Anthropologiestudenten beim Wurf des Atlatl zusehen. Dieser frühe Wurfspeer machte schon den Mammuts zu schaffen und drang noch vor wenigen hundert Jahren durch die eiserne Rüstung spanischer Konquistadoren. Selbst Angewandtes bietet die World Lecture Hall. Etwa die "Geschichte der ökonomischen Denkweise" einschließlich eines 22-Minuten-"Interviews" mit Karl Marx auf www.boisestate.edu/econ/lreynol/web/het.htm. Oder Online-Sprachkurse: Wollof und Xhosa, Suaheli und Sanskrit lehrt http://www.word2word.vorn/courscad.html. Surfen allein fördert die akademische Karriere allerdings nicht unbedingt. Wer of fizielle Online-Zertifikate in Deutschland anstrebt, findet in dem Beitrag "Virtuelle Universität im Selbstversuch" (Spektrum der Wissenschaft 11/ 2001, S. 109) gute Startpunkte für das Studieren im Netz, angefangen bei - na wo wohl? - www.studieren-irre-netz.de."
-
Reuß, R.: Enteignet die Enteigner! : Google Books geht immer schamloser zu Werke und enteignet kollektiv die europäische Produktion an Büchern ihrer spirituellen und materiellen Basis (2009)
0.01
0.010565036 = product of:
0.042260144 = sum of:
0.042260144 = weight(_text_:und in 3729) [ClassicSimilarity], result of:
0.042260144 = score(doc=3729,freq=92.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33239597 = fieldWeight in 3729, product of:
9.591663 = tf(freq=92.0), with freq of:
92.0 = termFreq=92.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3729)
0.25 = coord(1/4)
- Content
- "Es ist ein seltsames Phänomen, wenn kulturelle Errungenschaften, die in einem langen Kampf institutionalisiert worden sind, kampflos preisgegeben werden sollen - bloß weil angeblich die Kräfteverhältnisse so sind, dass man ein wenig Mut zusammennehmen muss, gegen die Einkassierung aufzustehen. Wären die Interessenvertreter im Bereich der Sozialversicherungssysteme genauso lethargisch wie die Autoren und Verlage im Zusammenhang der aktuellen Urheberrechtsfragen, es gäbe schon lange keine Krankenversicherung mehr. Für das Urheberrecht und das aus ihm abgeleitete Verwertungsrecht an künstlerischen und wissenschaftlichen Werken ist in Deutschland seit Mitte des 18. Jahrhunderts gestritten worden, und die Künstler (und in ihrem Windschatten: die Wissenschaftler) haben schließlich mit nach wie vor gültigen und plausiblen Gründen eine Rechtsform durchsetzen können, die die Bedingungen dafür schafft, von den Erträgen kreativer Produktion leben zu können. Nun ist durch das Internet und seine scheinbar grenzenlose Verfügbarmachung von Informationen (und die in ihr zu konstatierende bedingungslose Gier, sich solche Informationen zu verschaffen) eine Situation eingetreten, die, will man nicht jeden Gedanken an die Produktion von neuem Kulturgut ad acta legen, eine politische Regelung auf höchster Ebene an sich zwingend notwendig macht.
Wenn prominente Bibliotheksleiter so tun, als sei die Kooperation mit (nicht die Kritik an) Google alternativlos, so ist das bestenfalls gedankenlos, schlimmstenfalls bekennende Prostitution; wenn Verlagsvertreter ins selbe Horn tuten und so tun, als handle es sich hier um eine technische Entwicklung, die man ohnedies nicht aufhalten könne, und nicht um eine in jeder Hinsicht politische Frage, so sind sie schlicht zu faul, für ihre Interessen zu kämpfen und gerade dadurch entziehen sie diesen Interessen die Legitimation. Es ist nicht einzusehen, dass amerikanische Regierungsbeamte bei politischen Gesprächen die Interessen amerikanischer Konzerne (und der Patente, die sie verwalten) machtvoll vertreten (siehe nur Microsofts Lobbying ), die deutsche Regierung auf Google und speziell GoogleBooks aber mit einem Blick schielt wie dem, den einst das berühmte Kaninchen auf die berühmte Schlange geworfen hat. Es ist ihre Aufgabe, die Interessen der in diesem Land kreativ Arbeitenden zu schützen und dafür zu sorgen, dass - im Falle der dauernden Urheberrechtsverletzungen durch GoogleBooks - die bewusste oder bewusst in Kauf genommene Aushöhlung anderer Rechtssysteme als das amerikanische es ist, aufhört. Ginge es um Zölle auf Bier oder Weißkraut, schon längst wäre Tacheles geredet, das Schützenswerte wäre geschützt gewesen. Nicht so im Fall von Literatur. Man kann den Eindruck gewinnen, dass der Sektor der literarischen Produktion von Regierungsvertretern (und zwar EU-weit) so gering geschätzt wird, dass sie es nicht der Mühe wert finden, eine scharf umrissene Position in dieser Angelegenheit auszubilden und dann auch in Verhandlungen durchzusetzen. Diese Haltlosigkeit ist nicht hinnehmbar.
Ob in Deutschland unter vernünftigen Bedingungen geschrieben werden kann, wer den Mehrwert dieses Schreibens abschöpft und wo diese Abschöpfung stattfindet, sind mindestens so vitale Fragen des Staatswesens wie die nach der Sicherstellung der nächsten Erdgaslieferungen oder (hier ist die Politik ja immer besonders engagiert) nach der nächsten Olympiade auf deutschem Boden. Worum geht es? Es geht um den gewaltsamen Versuch, ein in einem langen Prozess erstrittenes Verfügungsrecht durch einfaches Verfahren in ein bloßes Einspruchsrecht zu transformieren und dabei entstehende Kollateralschäden durch ridiküle finanzielle Zahlungen abzugelten. Dabei geht Google immer schamloser zu Werke und enteignet kollektiv die europäische Produktion an Büchern ihrer spirituellen und materiellen Basis. Damit meine ich nicht nur etwa einen Fall wie den, dass ich auf dem Server von GoogleBooks vor einem Vierteljahr auf den vollständig eingescannten, mit OCR-Software behandelten Briefband unserer Kleist-Ausgabe (Briefe 1, 1793-1801) stieß. Hier konnte man bei der geistlosen Art, die solchem Freibeutertum eigen zu sein scheint, noch annehmen, dass der Titel für das Erscheinungsjahr genommen wurde - einen Klett-Cotta-Band Goethe erblickte ich ebenda als so genannten Volltext mit dem Erscheinungsjahr 1693!. Aber diese Großzügigkeit hat Methode, denn sie zeigt klar, wie wenig man bei GoogleBooks darauf Wert legt, sich juristisch korrekt zu verhalten. Verifikation (wie übrigens auch Qualitätskontrolle) wird als unnötig angesehen. Und tatsächlich existiert bei Google eine Kampfkasse, die für Schadensersatz, der aus solchen Versehen entsteht, locker die Kosten übernehmen kann. Peanuts.
Inzwischen sind auch nahezu alle anderen Bücher des Verlags, in dem unsere Kafka- und unsere Kleist-Ausgabe erscheint, erkennungsdienstlich von GoogleBooks behandelt (sie sind mit OCR - Software recherchierbar gemacht und schnipselweise anzeigbar). Es handelt sich dabei nicht um ein Kavaliersdelikt, sondern um einen eklatanten Rechtsbruch. Von diesem Verfahren sind freilich nicht nur wissenschaftliche Fachverlage, sondern auch Publikumsverlage wie etwa S. Fischer und Suhrkamp betroffen, deren Druckerzeugnisse ebenfalls (wie man so schön sagt:) retrodigitalisiert wurden. Dass die sich bis dato nicht gerührt haben (weder juristisch noch öffentlich), spricht nicht gerade für ihr Selbstbewusstsein.Ohnedies ist beklagenswert, dass die Verlagsbranche es bisher nicht geschafft hat, eine einheitliche und den politischen Bereich auch beeindruckende Stellung zu dieser kommerziellen Entwertungsmaschine aufzubauen. Der Grund dafür scheint mir in der weitgehend kopflosen Strategie (wenn man das so nennen kann) der im Börsenverein zusammenlaufenden Interessengruppen zu liegen. Besonders diejenigen, die Google einst freiwillig Bücher zur Verfügung stellten, stehen ziemlich diskreditiert da, wenn es um den öffentlichen Protest gegen weitere Formen der Enteignung geht (so etwa in der Debatte um erzwungenes Open Access). Sie dürfen jetzt erleben, dass der ihnen versprochene Algorithmus, nur bestimmte Seiten ihrer Bücher aufscheinen zu lassen, genauso leicht zu knacken ist wie die Sperre, die es verhindern sollte, eine Seite auszudrucken. Dass im Prinzip alle Bücher, die auf den amerikanischen Servern zu finden sind (also auch die für europäische IPs gesperrten), auch auf www.archive.org eingestellt werden, dürfte sich bei den betroffenen Verlagen zudem langsam ebenfalls herumgesprochen haben. Zur Rückgewinnung von moralischer Kraft und im Interesse einer einheitlichen Position der Verlagsbranche sollten die peinlichen Verträge mit Google allesamt gekündigt (die Kündigungsgründe liegen auf der Hand) und das Allgemeine in den Blick genommen werden.
Das Allgemeine kann freilich nicht darin bestehen, die VG Wort vorzuschicken und sie dabei gewähren zu lassen, mit Google einen ähnlich faulen Kompromiss zu schließen wie die amerikanischen Verlage ihn mit dem Konzern geschlossen haben - die Abgeltung von Urheberrechtsverletzungen in der Höhe von 60 Talern ist ein schlechter Witz, und überhaupt kann, eine Anmaßung, in dieser Angelegenheit die VG Wort für mich als Autor keine Rechte geltend machen, geschweige denn abtreten. Die Verwertungsgesellschaft ihrerseits sollte sich darauf konzentrieren, die teilweise marodierenden nationalen Bibliotheken wieder zur Räson zu bringen (nicht nur die Frage nach den Intranets, sondern auch die nach den neuerdings wie Pilzen aus dem Boden schießenden öffentlich aufgestellten Scannern drängt sich mir auf, wo für einen Scan nichts bezahlt und folglich auch kein Pfennig an die Produzenten abgeführt wird). Was not tut, ist: die durch Googles freibeuternde Aktivitäten geschaffene Enteignungskulisse auf die höchste politische Ebene zu hieven und zu einem Thema nationalen Interesses zu machen. Wir brauchen eine eindeutige Haltung des Justizministeriums und des Kanzleramts in dieser Frage. Und wir brauchen konkrete Aufklärung über die Auswirkungen Googles auf die hiesigen Produktionsverhältnisse. Die Öffentlichkeit hat ein Recht darauf, darüber aufgeklärt zu werden, was die Hydra Google anrichtet. Zugleich damit sollte man ihr auch einsichtig machen, wie sich mit der Vorstellung, alles sei umsonst, zwar blendend Geld machen, aber nichts Neues herstellen lässt.
Jeder, der mal eben schnell die einzige Suchmaschine seiner Wahl anschmeißt und nach etwas recherchiert, sollte ein Bewusstsein davon entwickeln, dass er damit einer Firma zuarbeitet, die seine eigenen kulturellen Grundlagen unterminiert. Man kann sich in diesem Zusammenhang darüber wundern, dass Googles Ruf nach wie vor so viel besser ist als der von Microsoft. Das Monopol Microsofts ist ja bei weitem nicht so schreckenerregend wie das der Suchmaschinenbetreiber - und die Daten, die sich Microsoft widerrechtlich aneignet, sind wohl auch nicht so brisant wie die von Google archivierten. Google hat allerdings, wie ein einfacher Blick auf die harmlos daherkommende Startseite zeigt, die raffiniertere und damit auch gefährlichere Strategie. Sie tarnt sich nahezu perfekt als Gratisdienstleistung (und packt, wie jede funktionierende Ideologie, die Menschen bei ihren Schwächen). Google hat kein Gesicht wie das von Bill Gates (warum fällt das niemandem auf?) - oder es hat, Hydra, viele, aber kein bestimmtes. Seine scheinbare Naturwüchsigkeit ist digital inkarnierte Lüge. Da viele auf diese Suchmaschine nicht mehr verzichten wollen (und wohl auch schon nicht mehr können), Google zugleich aber allein durch die Macht, die es mit seiner Datenerhebung akkumuliert, eine Gefahr für alle demokratischen Institutionen darstellt (und jetzt schon, wie gezeigt, Rechtsräume systematisch aushöhlt), führt auf Dauer kein Weg daran vorbei, dass man die Enteigner enteignet. Eisenhowers Programm einer Zerschlagung des militärisch-industriellen Komplexes ist auf den informationellen und digitarchischen Bereich zu übertragen. Wir brauchen, analog zur Weltbank, eine Weltdatenbank, die demokratisch legitimiert und überwacht wird und die universelle Verwertung von allem und jedem zu billigem Geld nicht als Geschäftsgrundlage hat. Ein gemeinsames Vorgehen von deutschen Autoren und Verlagen in dieser Frage ist dazu ein erster Schritt."
-
Erben, K.M.: ¬Das Internet wird menschlich : Web-Guides sind die neuen Pfadfinder im Dschungel des Netzes (2001)
0.01
0.010557856 = product of:
0.042231426 = sum of:
0.042231426 = weight(_text_:und in 6735) [ClassicSimilarity], result of:
0.042231426 = score(doc=6735,freq=30.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33217007 = fieldWeight in 6735, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6735)
0.25 = coord(1/4)
- Abstract
- Sie kamen, sie surften - und gingen zurück an den Strand", so überschrieb die British Virtual Society letzten September eine Analyse, die sich mit dem neuen Phänomen der "Web-Verweigerer" beschäftigt. Web-Verweigerer das sind die Leute, die für ein paar Tage oder Wochen ins Netz schauen und dann zu der Ansicht kommen: "Das ist nichts für mich." Für diese Entscheidung werden unterschiedliche Gründe genannt: zu teuer, zu zeitraubend und, immer wieder, zu technisch. Viele Menschen mögen einfach nicht mit Maschinen kommunizieren. Das gilt auch für diejenigen, die in den Statistiken als Internet-Anwender erscheinen. Sie versenden E-Mails, weil das zu ihrem Job gehört. Sie erledigen BankÜberweisungen am PC, weil sie wählend der Schalterstunden keine Gelegenheit dazu haben. Im äußersten Fall suchen sie bei www.bahn.de auch einmal, eine Zugverbindung. Für alles Weitere fehlen ihnen die Lust und die Erfahrung. Suchmaschinen - sofern sie sie überhaupt kennen - sind ihnen ein Graus. Der Anteil dieser Gruppe in der angeblich unaufhaltsam steigenden Anwenderzahl ist nicht bekannt. Schätzungen von einem Drittel und höher erscheinen jedoch realistisch. "Netzferne" in der Mehrheit - Zusammengerechnet bilden die, die keinen Zugang zum Netz haben oder, die Möglichkeiten der Technik nur unvollkommen oder widerstrebend nutzen, noch auf lange Zeit die Mehrheit der Bevölkerung. Und niemand, der von ECommerce spricht kann dieses Kundenpotential ignorieren. Auf die Bedürfnisse dieses "netzfernen", noch unerschlossenen Potentials ist das neue Angebot des Internet-Auskunftsdienstes zugeschnitten. Denn der Befund ist eindeutig: Weitaus mehr Mitglieder der Zielgruppe als erwartet sind entweder unwillig, die von der Technik gebotenen Möglichkeiten zu nutzen, oder sie verfügen nicht über die dazu erforderliche Erfahrung und Computerkompetenz. Die heftige Diskussion über die benutzerfreundliche Gestaltung von Websites ("usability") ist eine Reaktion darauf. Der "menschliche Faktor" ist ein anderer, neuer Lösungsansatz in der Überwindung des Mankos. "Web-Guides" heißen die Pfadfinder beim Hindernislauf durch den Internet-Dschungel, die nebenbei auch als Pioniere in einem neuen Beruf agieren. Idee und Konzept der WebGuides folgen der Einsicht, daß noch mehr Technik eben die Probleme nicht löst, die sich in dem verbreiteten Unbehagen im Umgang mit Technik äußern, Von Robots und intelligenter Software sollte man nicht mehr erwarten, als sie leisten können. Diese Lücke bietet die Chance für den menschlichen Faktor. Konkret heißt das: jedem, der Interesse an Informationen und Dienstleistungen aus- dem Internet hat, bietet beispielsweise die "AllesAuskunft" von talking. riet einen menschlichen Ansprechpartner als Vermittler oder Unterstützer. Und das nicht selten bei höchst persönlichen Fragen. Web-Guides verfügen nach einer eigens konzipierten Schulung über die NetKompetenz, die ungeübten oder auch nur ungeduldigen Netz-Anwendern abgeht. Web-Guides kennen Informationsangebote, Register und Suchmaschinen, und sie wissen, wie man am schnellsten Resultate erzielt. Sie sind die menschliche Clearingstelle zwischen den Informationsschätzen der Wissensgesellschaft und den ratlosen Schatzsuchern. Ein Telefon genügt fürs erste - In der ersten Ausbaustufe sind die WebGuides über Telefon oder E-Mail erreichbar. Schon hier können sie die große Stärke des unmittelbaren Kontakts ausspielen. Im persönlichen Gespräch, mit dem Anrufer klären sie, ob das, was er sagt auch das ist, was er sucht. Auf dieser Grundlage. werden einfache Auskünfte sofort erteilt, komplexerer Anfragen nach entsprechender Recherche durch einen Rückruf. Woher diese Auskünfte kommen - aus dem Internet, von der CD-ROM eines Verlages, aus der hauseigenen Datenbank - , spielt für den Anrufer keine Rolle. Was zählt, sind Qualität und Schnelligkeit
-
Wolff, V.: Job für Kreative : "Eierlegende Wollmilchsäue": Entwickler von Internet-Seiten müssen Surfer fesseln können (2004)
0.01
0.010557856 = product of:
0.042231426 = sum of:
0.042231426 = weight(_text_:und in 3126) [ClassicSimilarity], result of:
0.042231426 = score(doc=3126,freq=30.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.33217007 = fieldWeight in 3126, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3126)
0.25 = coord(1/4)
- Content
- "Für das Internet sind kreative Ideen lebensnotwendig - denn langweilige Seiten fesseln leider keinen Surfer lange. Auch deswegen sind zahlreiche neue Berufe entstanden, darunter der des Internet-Entwicklers oder Web-Developers. Das sind nicht die einzigen Bezeichnungen für die oft "eierlegenden Wollmilchsäue", die von allen Bereichen eines Webauftritts Ahnung haben müssen. Der Deutsche Multimedia Verband (www.dmmv.de) definiert vier relevante Tätigkeitsfelder der Multimediabranche, von denen drei in den Bereich der Internet-Entwicklung hineinreichen: "Informationstechnologie mit einem eher technischen Schwerpunkt, Design, Content und die inhaltliche Entwicklung", nennt Stefan Sievers, Referent für Aus- und Weiterbildung beim dmmv in Berlin. Die Anforderungen, die dabei an einen Entwickler gestellt werden, sind vielschichtig. "Da muss auf der einen Seite eine Datenbankanbindung für einen Reiseveranstalter programmiert werden, die mit unzähligen Anfragen gleichzeitig umgehen kann. Aber auch eine schicke Flash Animation fällt unter InternetEntwicklung", erklärt Dirk Rathje, Geschäftsführer von Sand und Schiefer in Hamburg, einem "büro für neues lernen", in dem webbasierte Lernsoftware entwickelt wird. - Keine einheitliche Berufsbezeichnung Die Berufsbezeichnung ist auch innerhalb der Entwicklerschaft nicht einheitlich. So sehen sich in einem Internet-Forum einige als Anwendungsentwickler, andere schlicht als Programmierer und wieder andere als Allround-Computerspezialisten. Wie auch immer die korrekte Bezeichnung lautet - "Entwickler schreiben Internetseiten mithilfe von Skriptsprachen und erzeugen den eigentlichen HTML-Inhalt dynamisch, indem Daten aus einer Datenbank gelesen und entsprechend verarbeitet werden", erläutert Cornelia Winter, Referentin der Geschäftsführung bei der Gesellschaft für Informatik (GI) in Bonn (www.gi-ev.de). Entwickler Rathje unterscheidet sowohl bei Aufgaben als auch bei den erforderlichen Kenntnissen und Qualifikationen zwischen der so genannten server- und der clientseitigen Programmierung: "Clientseitig ist alles, was im Webbrowser abläuft: HTML, Flash, Javascript. Das kann zwar beliebig schwierig und aufwendig werden, einfache Lösungen erzeugen moderne Webeditoren aber schon fast von selbst." Für die serverseitige Programmierung brauche es hingegen fundierte Informatikkenntnisse, sagt der 29-Jährige. "Da muss man mit Datenbanken umgehen können und Architekturen wie J2EE oder.net beherrschen." Andere Entwickler nennen als "Minimal-konfiguration für ihren Berufsstand Kenntnisse in verschiedenen Programmiersprachen, als Zusatzqualifikation XML, das allgemeine SQL, Perl, C++ und Erfahrung mit dem freien Betriebssystem Linux, über das Server nicht selten konfiguriert und gewartet werden. Aber der Web-Entwickler setzt nicht erst bei der Programmierung der Seiten an. Seine Aufgabe beginnt schon viel früher. "Es gibt zwei Sorten von Kunden: Die einen wollen eine Webpräsenz, wissen aber nicht genau, was möglich ist. Die anderen haben sehr genaue Vorstellungen des Möglichen und wollen die Aufgaben outsourcen", sagt Rathje. Also werden Seiten konzipiert, durchstrukturiert und danach dann programmiert. "Bei all dem sollte der Entwickler immer Nutzer vor Augen haben. Denn schließlich errichtet er eine Schnittstelle zur MenschMaschine-Kommunikation", sagt der Lernsoftware-Entwickler. Die Entwickler haben in großen Unternehmen gute Chancen auf spezielle und begrenzte Aufgabenbereiche - so kann sich einer um die Datenbankanbindung kümmern, während andere sich der Generierung von Benutzerschnittstellen widmen.
-
Rusch-Feja, D.: ¬Ein '¬Clearinghouse'-Konzept für Fachinformation aus dem Internet : oder wie man aus dem Chaos sinnvolle Informationsvermittlung betreibt (1997)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 2077) [ClassicSimilarity], result of:
0.041798268 = score(doc=2077,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 2077, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2077)
0.25 = coord(1/4)
- Abstract
- Die DFG-SSG-Bibliotheken haben bisher sowohl eine Informations- als auch eine Beschaffungsaufgabe, die darin besteht, die Fachgebiete mit einschlägiger inländischer und vor allem ausländischer Literatur auszustatten. Nun stehen im Internet und anderen netzen Informationsquellen zur Verfügung, die nur in ähnlicher Weise wie das SSG-Programm zu bewältigen sind. Anhand eines 'Clearinghouse'-Konzeptes kann der strukturierte Zugang zu fachbezogenen Iformationen in vernetzten Informationsquellen und vor allem im Internet geschaffen werden. Einige Aspekte des 'Clearinghouse'-Konzeptes sowie die Erfahrungen, Inhalte verteilter Informationsquellen mittels neuer Suchinstrumente zu bündeln, werden dargestellt. Die Verwendung von Gophern, Indices, Pointers, Subject Trees, WAIS-recherchierbaren Datenbanken und anderen Werkzeugen bei der Aufgabe, einen relativ präzisen Überblick über die relevanten Quellen für einen bestimmten Interessenschwerpunkt herzustellen, wird erläutert
- Source
- Beiträge zum XVIII. Fortbildungsseminar für Bibliotheksleiter/innen der Max-Planck-Institute und Arbeitsgruppen, 2.-5. Mai 1995 in Garching. Red.: H.C. Kuhn
-
Enderle, W.: Auf dem Weg zur digitalen Bibliothek : Projekte in Deutschland (1997)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 2650) [ClassicSimilarity], result of:
0.041798268 = score(doc=2650,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 2650, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2650)
0.25 = coord(1/4)
- Abstract
- In dem Beitrag wird ein knapper Überblick über verschiedene Projekte deutscher wissenschaftlicher Bibliotheken gegeben, welche mit unterschiedlichen Zielen und Konzepten zum Aufbau digitaler Bibliotheken beitragen. Es werden dabei 3 Bereiche unterschieden: Der Aufbau von Zugangssystemen zu elektronischen Fachinformationen, elektronische Dokumentlieferdienste und digital Dokumente im engeren Sinne. Erschließungssysteme für elektronische Fachinformationen werden in folgenden Projekten entwickelt: SSG-Fachinformation der SUB Göttingen, IBIS der UB Bielefeld und Gerhard des BIS Oldenburg. An elektronischen Dokumentlieferdiensten werden thematisiert: Das Online-Fernleihsystem des GBV, JASOB-NRW, TIBQUICK 2000 der TIB/UB Hannover und OMNIS/Myriad. Retrodigitalisierung gedruckter Dokumente wird im Rahmen der 'Verteilten digitalen Forschungsbibliothek' durchgeführt, während im WebDOC-Projekt ein umfassendes Konzept für die Administration elektronischer Dokumente durch Bibliotheken entwickelt wurde. Ein vergleichbares Konzept wird im Projekt MEDOC für den Bereich der Informatik erarbeitet
- Source
- Bibliothek: Forschung und Praxis. 21(1997) H.3, S.S.359-362
-
Friedrich, H.F.; Heins, J.; Mayer, E.: Gruppengrösse, Nachrichtenmenge, Kohärenzprobleme und Informationsorganisation beim Lernen in Netzen (1998)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 612) [ClassicSimilarity], result of:
0.041798268 = score(doc=612,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 612, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=612)
0.25 = coord(1/4)
- Abstract
- Es wurde untersucht, wie sich die unterschiedliche Größe (41 und 20 Teilnehmer) von virtuellen Diskussionsgrupen auf das Nachrichtenaufkommen, auf die Interaktivität der Diskussion, auf die wahrgenommene Kohärenz der Nachrichten und auf die Informationsorganisationsstrategien der Teilnehmer auswirkt. In der größeren Gruppe wurden im Verlauf einer Woche 60 Beiträge erzeugt, in der kleineren 16. Die Diskussion in der größeren Gruppe war interaktiver, gemessen an der gegenseitigen Bezugnahme in den Nachrichten. Dafür erlebten die Teilnehmer der größeren Gruppe das Informationsangebot als weniger kohärent. Dies weist darauf hin, daß Interaktivität und Kohärenz in virtuellen Seminaren in Konflikt miteinander geraten können. Der Befund, daß - entgegen der Erwartung - die größere und weniger kohärente Informationsmenge in der größeren Gruppe nicht zum verstärkten Einsatz kompensierender Informationsorganisationsstrategien geführt hat, legt nahe, zukünftig verstärkt subjektive Nutzen-Kosten-Überlegungen als Ursache für die Anwendung individueller Informationsorganisationsstrategien beim Tele-Lernen zu berücksichtigen
-
Wiederhold, L.: MENALIB - Die Virtuelle Fachbibliothek Vorderer Orient / Nordafrika (2001)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 736) [ClassicSimilarity], result of:
0.041798268 = score(doc=736,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 736, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=736)
0.25 = coord(1/4)
- Abstract
- Die räumliche Trennung von Literaturbeständen und der für die Überwindung dieser Trennung notwendige zeitliche Aufwand stellten und stellen für Bibliotheksbenutzer ein Hindernis bei der Informationsbeschaffung dar. Bibliotheken suchen deshalb seit langem nach Möglichkeiten, die ungünstigen Folgen räumlicher Verteilung von Informationsressourcen zu mindern. Die Einführung der EDV in das Bibliothekswesen eröffnete neue Perspektiven für die Verfolgung dieses Anliegens. Der Begriff der virtuellen Bibliothek, der ca. 1980 in die Diskussion um die Verbesserung von Informationsstrukturen eingeführt wurde, steht heute für unterschiedliche Modelle durch elektronische Hilfsmittel zusammengeführter verteilter Bestände bzw. Bestandsnachweise'. So existieren virtuelle Bibliotheken in regionalem Kontext, wie etwa im Fall der Digitalen Bibliothek NRW und in fachlichem Zusammenhang, wie die Virtuelle Fachbibliothek Psychologie. Auch der Leistungsumfang virtueller Bibliotheken ist unterschiedlich - er reicht von einer strukturierten Link-Liste bis zur integrierten Suche nach verschiedenen Medienformen unter einer Oberfläche. Trotz dieser Unterschiede weisen Konzepte virtueller Bibliotheken grundlegende Gemeinsamkeiten auf: Sie gehen von der Verfügbarkeit digitaler Daten aus, setzen technische Strukturen zur Vernetzung von Informationsanbietern und Benutzern voraus und formulieren als Ideal den Zugriff auf verteilte Ressourcen unterschiedlicher Art über eine Suchoberfläche in einem Rechercheschritt.
-
Stöckle, A.M.: Agrarwissenschaften im Internet : Deutschland (2001)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 940) [ClassicSimilarity], result of:
0.041798268 = score(doc=940,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 940, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=940)
0.25 = coord(1/4)
- Abstract
- Das Informationsangebot im Bereich der Agrarwissenschaft hat sich seit Einführung des Internet sehr stark verändert. Vor einigen Jahren war die Suche nach agrarwissenschaftlichen Themen im Wesentlichen noch auf die Suche nach Fachliteratur beschränkt. Dabei standen die Kataloge der landwirtschaftlichen Bibliotheken als auch Fachinformationsstellen, die nach Auftrag mit Hilfe spezieller Retrieval-Software in Online-Datenbanken recherchierten, zur Verfügung. Heute kann der Interessierte von jedem PC aus selbstständig in Online-Datenbanken suchen, ohne tief greifende Kenntnisse der Retrieval-Software zu besitzen, und er erhält darüber hinaus noch weitergehende Informationen. Agrarrelevante Firmen, Organisationen oder auch Einzelanbieter informieren über aktuelle landwirtschaftliche Themen, bieten so genannte "Agrar-Chats" an, geben Tipps für Verbraucher und Landwirte, stellen einen Zugang zu Agrarbörsen usw. Die Informationsangebote im Agrarbereich werden von zahlreichen Institutionen bereitgestellt, die in diesem Bereich tätig sind. Auf der einen Seite sind das Verwaltungseinrichtungen der Agrarwirtschaft und Forschungseinrichtungen des Bundes und der Länder, auf der anderen Seite Industrieverbände, Firmen, Organisationen, Einzelanbieter wie auch landwirtschaftliche Verlage sowie landwirtschaftliche Bibliotheken
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.8, S.453-458
-
Lischka, K.: Gegengewichte zum Kommerz : Die Folgen der Informationstechnik beschäftigen viele Gruppen (2003)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 2247) [ClassicSimilarity], result of:
0.041798268 = score(doc=2247,freq=40.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 2247, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2247)
0.25 = coord(1/4)
- Content
- ""Chipkarten und Überwachung", "Biometrie - Funktionsweise und Sicherheit", "Datenfunk-Übertragungstechniken": Solche Themen beschäftigen den Chaos Computer Club. Das erstaunt, entstand doch der CCC im linksalternativen, oft technikfeindlichen Milieu der achtziger Jahre. Genau wie einige andere Initiativen, die sich mit den gesellschaftlichen Folgen von Informationstechnologie beschäftigen. Eines haben sie alle - auch die im Hightechboom der neunziger Jahre gegründeten Gruppen - gemein: Sie wollen nicht weniger, sondern anders angewandte Technologie. Der CCC ist mit seinen 1400 Mitgliedern die formal größte und zudem älteste deutsche Organisation auf dem Gebiet. Gegründet wurde der Verein am 12. September 1981 in den Berliner Redaktionsräumen der alternativen Zeitung taz am Tisch der Kommune 1. Der im vergangenen Jahr gestorbene Gründervater Wau Holland erinnerte sich an die Widersprüche der Herkunft: "Die Redakteure der taz haben das 1981 überhaupt nicht begriffen, was da irgendwelche Leute, die mit Computern anreisten, wollen." Eine Frau aus der Abonnementabteilung hätte erkannt, 'wie wichtig Computer sind, und das Treffen ermöglicht. Bald danach beriet der CCC Grünen-Politiker in Technikfragen. Als Organisation ein wenig jünger, beim Durchschnittsalter jedoch wohl etwas älter-ist das "Forum Informatikerinnen für Frieden und gesellschaftliche Verantwortung" (FIfF). 250 Computerwissenschaftler, Praktiker und Studenten gründeten den Verein am 2. Juni 1984 bei einem Treffen an der Bonner Universität. Auch hier ist er Hintergrund politisch. Vorstandsmitglied Ralf E. Streibl: "Es gibt einen Zusammenhang mit der Friedensbewegung. Damals haben sich viele berufsständische Initiativen gegründet." Doch das FIfF mit seinen derzeit 900 Mitgliedern hat sie überlebt. Streibl vermutete als Grund daftir: "Wir haben uns eher gegenüber anderen Themen geöffnet:" Die reichen nun von einer bundesweiten Aktion gegen Videoüberwachung über eine lokale Kampagne in Bremen gegen Chipkarten für Asylbewerber bis zum weiten Feld "Technik, Geschlecht, Gesellschaft"; das im Oktober auf der Jahrestagung beackert wurde. Das FIfF ist in erster Linie ein Diskussionsforum für die Fachwelt mit Interesse an der gesellschaftspolitischen Bedeutung von Informationstechnologie. Mit Gutachten und Stellungnahmen bei Anhörungen beeinflusst das FIfF die Politik. Mangels finanzieller Möglichkeiten fehlt aber eine darüber hinausgehende Lobbyarbeit. An die Öffentlichkeit wendet sich das Forum fereit einigen Jahren verstärkt, beispielsweise über die Beteiligung an der Verleihung der deutschen Big-Brother-Awards. Organisiert wird die vom ebenfalls in den achtziger Jahren gegründeten "Verein zur Förderung des öffentlichen bewegten und unbewegten 'Datenverkehrs" (Foebud). Die Bielefelder Initiative startet die Künstler padeluun und Rena Tangens. Ihr Charisma und kreative Aktionen wie die "Privacy Card" gegen das Payback-Rabattsystem brachten den Wahl-Bielefeldern überregionale Bedeutung. Die zweite Welle deutscher Initiativ gruppen an den Schnittstellen von Infor- mationstechnologie und, Gesellschaft entstand in den neunziger Jahren.
Der Unterschied: Hintergrund Kearen weniger als in den achtziger jähren politische Entwicklungen, sondern vielmehr technologische. Computer eroberten als PCs immer mehr Haushalte, und das Internet wurde mit dem World Wide Web populär Vor diesem Hintergrund gründeten 1996 in München sieben Netzaktivisten den "Förderverein Informationstechnik und Gerellschaft" (Fitug). Eigentlich wollten wir nur unsere Aktivitäten bündeln. Damals ging es noch darum, das Medium und seine Benutzung bekannter zu machen - mehr in Richtung Information", erinnert sich Jürgen Plate, Gründungsmitglied und Informatik-Professor an der Münchner Fachhochschule. Seminare und Beratung über Chancen und Risiken der Informationstechtnologie sind heute nicht mehr das wesentliche Tätigkeitsfeld des Fitug. Anfragen werden beantwortet oder an die entsprechenden Experten unter den 80 Mitgliedern weitergeleitet. Die diskutieren vor allem intern. Bei großen Themen wendet sich Fitug auch über Presse und Diskussionsveranstaltungen an die Öffentlichkeit oder mit Briefen an verantwortliche Politiker. Wichtig sind für den Verein derzeit Privacy, Sperrverfügungen, teils das Patentrecht". Fragwürdige Patente sind der Existenzgrund des "Fördervereins für eine Freie Informationelle Infrastruktur" (FFII), der 1999 in München gegründet wurde. Gehörten zuerst vor allem Linux-Freaks dazu, die sich von Münchner Installationsfesten kannten, sind die 187 Mitglieder heute bundesweit verstreut. Sie engagieren sich für offene Schnittstellen und einen fairen Wettbewerb, ohne proprietäre Programme wie Windows per se zu verdammen. Den Mitgliedern schwebt ein Gegengewicht zum Branchenverband Bitkom vor, geführt von Softwarefachleuten statt Juristen, Managern und Werbern. Noch ist der FFII davon weit entfernt - wie alle anderen Initiativen. Zwar gibt es in Deutschland mehr bekannte Organisationen als etwa in den USA, doch ist keine von ihnen groß genug für eine Lobbyarbeit, die sich mit der von Industrieverbänden messen kann. Deshalb waren bisher wohl auch jene Initiativen am erfolgreichsten, bei denen viele der Gruppen sich zu einer Plattform zusammengeschlossen haben: etwa beim Big-Brother-Award oder Privatkopie.net. Vielleicht aber sind die netzartigen Strukturen dem Thema förderlicher als alte Lobbyhierarchien."
-
Ohly, H.P.: Gestaltungsprinzipien bei sozialwissenschaftlichen Wissensportalen im Internet (2004)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 4153) [ClassicSimilarity], result of:
0.041798268 = score(doc=4153,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 4153, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4153)
0.25 = coord(1/4)
- Abstract
- Portale werden Internet-Server genannt, die Zugang zu einer breiten Palette von Informationen und Diensten, wie eMail, Foren, Suchmaschinen und online-Warenhäusem, bieten. Sind sie für einen engeren Problembereich bestimmt, so spricht man von einem "Vortat" (vertical portal, z.B. women.com, im Gegensatz zu "horizontal portals/megaportals"; vgl. Abb. 1). Da das Konzept offensichtlich von Suchmaschinen mit generellen Sachkatalogen ("all-purpose portals", wie Yahoo oder Excite) herkommt, ist es sinnvoll im Wissenschaftsbereich eher von Wissensportalen zu sprechen, wobei Kooperationstools, anspruchsvolle Informationssuchdienste und Wissensnavigationskarten oft eingeschlossen sind. In der Wissenschaft, zumindest wenn die inhaltliche Information im Vordergrund steht, spricht man bescheidener von Subject Gateways.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Lehmann, K: ¬Der lange Weg zur Wissensgesellschaft (2005)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 4484) [ClassicSimilarity], result of:
0.041798268 = score(doc=4484,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 4484, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4484)
0.25 = coord(1/4)
- Abstract
- »Es ist an der Zeit, Wissen anders zu schreiben«, wirbt ein Flaggschiff der deutschen Zeitungslandschaft für seinen neuesten Ableger: Zeit Wissen. Dieser doppeldeutige Slogan ist nur einer von vielen, der einen neuen Blick auf Wissen fordert. Aber jenseits von Pisa-Test, Quiz-Shows und Wissenschaftsfernsehen vollzieht sich ein ernstzunehmender Wandel, der seltener im Fokus der Massenmedien steht: das Entstehen der Wissensgesellschaft. Die Idee einer Wissensgesellschaft wird in allen Sphären des öffentlichen Lebens diskutiert - meist unter wirtschaftlichen Gesichtspunkten. Der ökonomische Schwerpunkt mag dabei dem Ursprung der Idee geschuldet sein: die vordergründig soziologische, letztlich aber volkswirtschaftlich ausgerichtete Analyse des Wandels von Unternehmen. Auch der aktuell vorherrschende Trend, alles zu ökonomisieren, fördert eine Verengung des Begriffs auf Branchenstrukturen und Produktionsweisen. Die Wissensgesellschaft ist aber mehr: Auf politischen, sozialen und kulturellen Feldern prägt ihre Idee den gesellschaftlichen Wandel und ermöglicht Visionen, die der gängigen Ökonomisierung Alternativen entgegensetzt. So steht etwa das Konzept Open Source, frei erarbeitete und für alle zugängliche Software, nicht nur für eine alternative Gestaltung der Wissensgesellschaft, sondern auch für zukünftige Felder gesellschaftlicher Machtkämpfe.
-
Schetsche, M.: ¬Die ergoogelte Wirklichkeit : Verschwörungstheorien und das Internet (2005)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 4499) [ClassicSimilarity], result of:
0.041798268 = score(doc=4499,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 4499, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4499)
0.25 = coord(1/4)
- Abstract
- »Zweimal täglich googeln«, empfiehlt Mathias Bröckers in seinem Buch »Verschwörungen, Verschwörungstheorien und die Geheimnisse des 11.9.«. Der Band gilt den gutbürgerlichen Medien von FAZ bis Spiegel als Musterbeispiel krankhafter Verschwörungstheorie. Dabei wollte der Autor - nach eigenem Bekunden - keine Verschwörungstheorie zum »11. September« vorlegen, sondern lediglich auf Widersprüche und Fragwürdigkeiten in den amtlichen Darstellungen und Erklärungen der USRegierung zu jenem Terroranschlag hinweisen. Unabhängig davon, wie ernst diese Einlassungen des Autors zu nehmen sind, ist der »Fall Bröckers« für die Erforschung von Verschwörungstheorien unter zwei Aspekten interessant: Erstens geht der Band auf ein »konspirologisches Tagebuch« zurück, das der Autor zwischen dem 13. September 2001 und dem 22. März 2002 für das Online-Magazin Telepolis verfasst hat; zweitens behauptet Bröckers in der Einleitung zum Buch, dass er für seine Arbeit ausschließlich über das Netz zugängliche Quellen genutzt habe. Hierbei hätte ihm Google unverzichtbare Dienste geleistet.
-
Lohmöller, B.: Blogs sind? Blogs sind! (2005)
0.01
0.010449567 = product of:
0.041798268 = sum of:
0.041798268 = weight(_text_:und in 4511) [ClassicSimilarity], result of:
0.041798268 = score(doc=4511,freq=10.0), product of:
0.12713796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057323597 = queryNorm
0.3287631 = fieldWeight in 4511, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4511)
0.25 = coord(1/4)
- Abstract
- Glaubt man den zumeist etwas volkstümlichen Beschreibungen, so sind Blogs »private Online-Tagebücher«, »Piratensender im Internet«, gleichermaßen Konkurrenz und Kontrollinstanz zu etablierten Medien, eine authentische Informationsquelle, Trendbarometer, nicht immer glaubwürdig, »haben Magazin-Charakter« und sind auf jeden Fall »das nächste große Ding«. Auch wenn das zuletzt genannte Attribut wohl am ehesten konsensfähig ist, wäre ein Blog, das all dies in sich vereinigt, wohl ein Kuriosum. Vielmehr bildet der Begriff »Weblog«, kurz »Blog«, eine Klammer für unterschiedlichste Online-Publikationen, während die Eigenschaften, die allen Blogs gemein sind, unspektakulär daherkommen: Aktuelle Beiträge, verfasst in einem unaufwändigen Content-ManagementSystem, dargestellt in umgekehrt chronologischer Reihenfolge und in aller Regel mit Kommentarfunktion versehen [@I]. Der technische Blickwinkel ist zwar leicht zu konkretisieren, für große Emotionen aber nicht besonders ergiebig. Es gibt zahlreiche Anbieter, die einem nach wenigen Klicks ein schlüsselfertiges Blog anbieten, wie z.B. der inzwischen zu Google gehörende Dienst Blogger.com, das deutsche Unternehmen blogg.de oder der sympathische österreichische Anbieter twoday.net. Technisch versiertere Nutzer installieren sich ihr gesamtes Blogsystem gleich auf einem eigenen Server und nutzen die zahlreichen zusätzlichen Möglichkeiten, die Systeme wie MovableType, WordPress, Nucleus und Co. zur Verfügung stellen.