-
Stalder, F.: Kultur der Digitalität (2016)
0.01
0.008869118 = product of:
0.035476472 = sum of:
0.035476472 = weight(_text_:und in 3559) [ClassicSimilarity], result of:
0.035476472 = score(doc=3559,freq=12.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.29991096 = fieldWeight in 3559, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=3559)
0.25 = coord(1/4)
- Abstract
- Referentialität, Gemeinschaftlichkeit und Algorithmizität sind die charakteristischen Formen der Kultur der Digitalität, in der sich immer mehr Menschen, auf immer mehr Feldern und mithilfe immer komplexerer Technologien an der Verhandlung von sozialer Bedeutung beteiligen (müssen). Sie reagieren so auf die Herausforderungen einer chaotischen, überbordenden Informationssphäre und tragen zu deren weiterer Ausbreitung bei. Dies bringt alte kulturelle Ordnungen zum Einsturz und Neue sind bereits deutlich auszumachen. Felix Stalder beleuchtet die historischen Wurzeln wie auch die politischen Konsequenzen dieser Entwicklung. Die Zukunft, so sein Fazit, ist offen. Unser Handeln bestimmt, ob wir in einer postdemokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und der Partizipation leben werden.
-
Stalder, F.: Algorithmen, die wir brauchen : neue technopolitische Bedingungen der Kooperation und des Kollektiven (2017)
0.01
0.008192941 = product of:
0.032771762 = sum of:
0.032771762 = weight(_text_:und in 3560) [ClassicSimilarity], result of:
0.032771762 = score(doc=3560,freq=4.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.27704588 = fieldWeight in 3560, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=3560)
0.25 = coord(1/4)
- Abstract
- Die Bedeutung von »Algorithmen« in unserer Gesellschaft wächst rasant. Unter Algorithmen verstehe ich aber nicht nur Computercodes, sondern soziotechnische Systeme und institutionelle Prozesse, in denen mehr oder weniger lange Abschnitte der Entscheidungsketten automatisiert sind. Vgl. auch das Buch: Stalder, F.: Kultur der Digitalität. Berlin: Suhrkamp 2016. 282 S. Vgl. auch den Beitrag: Luttenberger, J.: Achtung, Algorithmus! In: Rheinpfalz. Nr.68 vom 21.03.2017.
-
Stalder, F.; Mayer, C.: ¬Der zweite Index : Suchmaschinen, Personalisierung und Überwachung (2009)
0.01
0.00809636 = product of:
0.03238544 = sum of:
0.03238544 = weight(_text_:und in 22) [ClassicSimilarity], result of:
0.03238544 = score(doc=22,freq=10.0), product of:
0.118290015 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05337113 = queryNorm
0.27378 = fieldWeight in 22, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=22)
0.25 = coord(1/4)
- Abstract
- Googles Anspruch ist bekanntermaßen, "die auf der Welt vorhandene Information zu organisieren". Es ist aber unmöglich, die Information der Welt zu organisieren, ohne über ein operatives Modell der Welt zu verfügen. Am Höhepunkt der westlichen Kolonialmacht konnte Melvil(le) Dewey (1851-1931) einfach die viktorianische Weltsicht als Grundlage eines universalen Klassifikationssystems heranziehen, das zum Beispiel alle nicht-christlichen Religionen in eine einzige Kategorie zusammenfasste (Nr. 290 "Andere Religionen"). Ein derartig einseitiges Klassifizierungssystem kann, bei all seiner Nützlichkeit in Bibliotheken, in der multikulturellen Welt der globalen Kommunikation nicht funktionieren. Tatsächlich kann ein uniformes Klassifizierungssystem grundsätzlich nicht funktionieren, da es unmöglich ist, sich auf einen einzigen kulturellen Begriffsrahmen zu einigen, aufgrund dessen die Kategorien definiert werden könnten. Dies ist neben dem Problem der Skalierung der Grund, weshalb Internet-Verzeichnisse, wie sie von Yahoo! und dem Open Directory Project (demoz) eingeführt wurden, nach einer kurzen Zeit des Erfolgs zusammenbrachen. Suchmaschinen umgehen dieses Problem, indem sie die Ordnung der Ausgabe für jede Anfrage neu organisieren und die selbstreferenzielle Methode der Linkanalyse einsetzen, um die Hierarchie der Ergebnisse zu konstruieren (vgl. Katja Mayers Beitrag in diesem Band). Dieses Ranking hat den Anspruch, objektiv zu sein und die reale Topologie des Netzwerks zu spiegeln, die sich ungeplant aus den Verlinkungen, die durch die einzelnen Informationsproduzenten gesetzt werden, ergibt. Aufgrund ihrer Kenntnis dieser Topologie bevorzugen Suchmaschinen stark verlinkte Knoten gegenüber wenig verlinkten peripheren Seiten. Diese spezifische Art der Objektivität ist eines der Kernelemente von Suchmaschinen, denn sie ist problemlos skalierbar und genießt das Vertrauen der Nutzer.