Search (11727 results, page 578 of 587)

  • × language_ss:"d"
  1. Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 431) [ClassicSimilarity], result of:
          0.022160148 = score(doc=431,freq=8.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 431, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=431)
      0.25 = coord(1/4)
    
    Content
    "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
    Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
    Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
  2. Kaiser, A.: Intelligente Information Retrieval Systeme (1993) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 554) [ClassicSimilarity], result of:
          0.022160148 = score(doc=554,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 554, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=554)
      0.25 = coord(1/4)
    
    Abstract
    Der Artikel setzt sich mit dem Intelligenten Information Retrieval, einem neuen Forschungsschwerpunkt im Bereich der unformatierten Datenbanken, auseinander. Die Ausführungen geben einen Überblick über gängige Definitionen aus Literatur und Praxis. Ein Anforderungskatalog an Intelligente Information Retrieval Systeme wird erstellt. Die Anforderungen orientieren sich an den Hauptkomponenten eines konventionellen Information Retrieval Systems. Den Abschluß des Beitrags bildet der Versuch einer eigenständigen Definition.
  3. Siegel, M.: Maschinelle Übersetzung (2023) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 792) [ClassicSimilarity], result of:
          0.022160148 = score(doc=792,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 792, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=792)
      0.25 = coord(1/4)
    
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 835) [ClassicSimilarity], result of:
          0.022160148 = score(doc=835,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 835, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=835)
      0.25 = coord(1/4)
    
  5. Zech, M.: Wie Gelehrte eine Epoche erfanden : Achsenzeit (2023) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 867) [ClassicSimilarity], result of:
          0.022160148 = score(doc=867,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=867)
      0.25 = coord(1/4)
    
    Abstract
    Im 1. Jahrtausend v. Chr. kam es zur Wende in der Menschheitsgeschichte. Gelehrte entwickelten weltweit aufklärerische Ideen. Die These der Achsenzeit klingt fantastisch - und ist es auch. Über eine verführerische Theorie, die das Verständnis von Geschichte radikal in Frage stellte. Bezugnahme auf die Darstellungen von Jan Assmann, die die von Karl Jaspers aufgestellten Behauptungen in ein neues Licht rücken.
  6. Bischoff, M.: Eine (fast) unlösbare Aufgabe mit tragischem Ende : die fabelhafte Welt der Mathematik (2023) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 932) [ClassicSimilarity], result of:
          0.022160148 = score(doc=932,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=932)
      0.25 = coord(1/4)
    
    Content
    Gelungene Darstellung des Zusammenhangs zwischen der Frage nach der Auflösbarkeit von Polynomgleichungen und Galoisgruppen.
  7. Bischoff, M.: ¬Der doppelte Einstein (2023) 0.01
    0.005540037 = product of:
      0.022160148 = sum of:
        0.022160148 = weight(_text_:und in 1063) [ClassicSimilarity], result of:
          0.022160148 = score(doc=1063,freq=2.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19590102 = fieldWeight in 1063, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0625 = fieldNorm(doc=1063)
      0.25 = coord(1/4)
    
    Abstract
    Viele hatten die Hoffnung auf eine Einstein-Kachel aufgegeben: eine einzelne Fliese, die eine Ebene lückenlos bedecken kann, ohne dass sich ein periodisches Muster ergibt. Doch nun hat ein Hobby-Mathematiker die Fachwelt mit seinen Entdeckungen überrascht. Diese einem Gespenst ähnelnde Kachel gilt als »Einstein« - und ist der zweite derartige spektakuläre Fund innerhalb von wenigen Monaten.
  8. Röttgers, J.; dpa: ¬Der Kampf ums digitale Buch : Die deutschen Verlage reagieren auf Google - und arbeiten an einer Plattform fürs kostenlose Online-Lesen (2006) 0.01
    0.005496585 = product of:
      0.02198634 = sum of:
        0.02198634 = weight(_text_:und in 6055) [ClassicSimilarity], result of:
          0.02198634 = score(doc=6055,freq=14.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19436452 = fieldWeight in 6055, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=6055)
      0.25 = coord(1/4)
    
    Content
    "Wer Kostproben von neuen Romanen oder ganze Bände online lesen und hören möchte, den lässt die Branche bald nicht mehr allein. Der Börsenverein des Deutschen Buchhandels will im Februar eine Plattform starten. Verlage und Autoren entscheiden dabei selbst, in welchem Umfang sie Inhalte kostenlos oder gegen Entgelt zur Verfügung stellen. Das Projekt "Volltextsuche Online" soll auch der Herausforderung durch Google begegnen: Die Internet-Suchmaschine stellt schon länger Bücher ins Netz. "Wir wollen aber nicht in Konkurrenz zu Google treten", sagt der Hauptgeschäftsführer des Börsenvereins, Alexander Skipis. Die Branche verhandle vielmehr mit Google derzeit über eine Kooperation: Inhalte der "Volltextsuche Online" sollen oben in den Ergebnislisten von Suchabfragen stehen. Derzeit wollen 70 Verlage beim OnlineProjekt mitmachen, 10000 Titel sind erfasst. Skipis will auch Zehntausende von rechtefreien Titeln online verfügbar machen. Die Macher hoffen, auch jene Verlage ins Boot zu kriegen, die schon jetzt im Internet Geschäftsmodelle erproben. Die geplan-. te Plattform werde besser wahrgenommen als verschiedene Angebote einzelner Verlage. "Wenn wir mit 10 000 Titeln nach einem Jahr herumdümpeln, haben wir das Thema vergeigt." Miteingebunden werden soll auch der Buchhandel. Begonnen hatte das Zeitalter der digitalisierten Bücher ;im März 2003 in der Bibliothek der kalifornischen Stanford-Universität. Mit einem raumfüllenden Roboter begann die renommierte Institution damals mit dem Scannen. Das mehrere 100 000 Dollar teure Gerät blättert automatisch, durch Bücher und Magazine und fotografiert jede Seite mit einer hochauflösenden Spezialka-mera. Zusammenklebendes Papier wird sorgsam mit einem sanften Luftstoß geteilt. Theoretisch kann ein Buch-Roboter gut tausend Seiten pro Stunde erfassen. Stanfords Bibliothekare bemerkten aber bald, dass sie ältere Schmöker nur mit, einer Rate von 100 bis 200 Seiten pro Stunde scannen können. 15 Monate später hatten sie gerade einmal 800 Bücher digitalisiert. Die Erfassung des 7,5 Millionen Titel umfassenden Bestands hätte so Jahrtausende gedauert. Ende 2004 bekam die Bibliothek dann Hilfe von Google. Der Suchmaschinenriese erklärte sich bereit, mehrere Millionen Titel zu digitalisieren - täglich bis zu 100000 Seiten. Stanfords Bibliothekar Michael Keller bezeichnete das als "riesigen Schritt vorwärts". Vorher habe man Digitalisierung als Liebhaberprojekt betrieben. "Die Zusammenarbeit mit Google macht daraus ein industrielles Unterfangen."
    Google legt kräftig vor Knapp zwei Jahre später hat die Suchmaschine sieben Universitäten als Partner gewonnen und viele tausend Bücher mit einer eigens entwickelten Technik digitalisiert. Wie groß der eigene Datenbestand ist, verrät Google nicht. Hinweise auf den Fortschritt des Unterfangens bietet Googles Print-Plattform. Die Firma lässt Nutzer dort im Volltext digitalisierter Bücher suchen. Einige der Titel stammen von Verlagen selbst, der Rest ist das Ergebnis der Bibliotheks-Digitalisierung. Gebräuchliche Begriffe der englischen Sprache resultieren in Fundstellen auf knapp 80 Millionen Seiten. Das wären gut 300000 Werke mit je 250 Seiten. Weitere Indizien gibt die Analyse einer US-Fachzeitschrift für digitale Bibliotheken. Die Autoren des D-Lib-Magazin fanden heraus, dass Google auf dem besten Weg ist, einen Großteil der weltweit verfügbaren Bücher zu digitalisieren. So finden sich in den Katalogen der fünf anfänglichen Projekt-Partner bereits 33 Prozent aller Titel des weltweiten Bibliothekskatalogs Worldcat. Fremdsprachen-Sammlungen sorgen dafür, dass Googles Buch-Katalog trotz seiner amerikanischen Wurzeln vielsprachig ist. Nur die Hälfte ist in englischer Sprache. An zweiter Stelle stehen deutsche Werke mit zehn Prozent. Nun gab Google eine Kooperation mit der Universität Madrid bekannt, dielen Anteil der nicht-englischen Bücher steigern dürfte. Über Pläne für Deutschland will sich die Firma nicht äußern: "Wir sprechen mit zahlreichen Bibliotheken auf der ganzen Welt", sagt eine Sprecherin. Die Geheimnistuerei kommt nicht von ungefähr. Die Konkurrenz Yahoo und Microsoft hat sich zur Open-Content-Alliance zusammengeschlossen, um selbst Millionen von Büchern zu erfassen. Gegenwind gibt es auch von Rechteinhabern, die Klagen wegen Urheberrechtsverletzungen anstreben. Unumstritten ist dagegen Googles Projekt, Bücher mit abgelaufenem Urheberrechtsschutz als komplette Downloads anzubieten. Mit dabei: Goethes Faust - aus dem Buchbestand der Stanford-Universität."
  9. Scheven, E.: Aktuelles zu den Regeln für den Schlagwortkatalog (RSWK) : 6. u. 7. Ergänzungslieferung und deren Anwendung in der DNB (2010) 0.01
    0.005496585 = product of:
      0.02198634 = sum of:
        0.02198634 = weight(_text_:und in 3490) [ClassicSimilarity], result of:
          0.02198634 = score(doc=3490,freq=14.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19436452 = fieldWeight in 3490, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=3490)
      0.25 = coord(1/4)
    
    Content
    "6. Ergänzungslieferung der RSWK: Im Januar 2010 wurde die 6. Ergänzungslieferung der RSWK <http://www.d-nb. de/standardisierung/pdf/rswk_erg_6.pdf> veröffentlicht. Die 6. Ergänzungslieferung enthält insbesondere Änderungen an den Grundregeln in den §§ 13-15, die auf Ergebnisse der Arbeitsgruppe Strategie der Sacherschließung zurückgehen (http://www.d-nb.de/standardisierung/afs/afs_prot.htm unter "Expertengruppe Sacherschließung - Arbeitsgruppen"). Das Ziel dieser Arbeitsgruppe war u.a., Empfehlungen zu erarbeiten, um mehr Material effizient in kürzerer Zeit erschließen zu können. Auch sollten den Bedingungen des Online-Retrieval stärker Rechnung getragen werden. Deshalb wurden in den RSWK die Regeln für die Anordnung der Schlagwörter in der Schlagwortfolge vereinfacht, die Regeln zur Permutation mit intellektuell vergebenen Permutationszeichen gestrichen und die Vorgaben, wann eine oder mehrere Schlagwortfolgen gebildet werden, ebenfalls vereinfacht. Das hat zu einer einheitlicheren Anwendung der RSWK in den Verbünden geführt. Nach § 13,3a RSWK wird nun der gesamte Dokumentinhalt als ein Ahema aufgefasst und durch eine Schlagwortfolge wiedergegeben, sofern eine zusammenfassende, unmissverständliche Beschlagwortung möglich ist. Die frühere Praxis, für Aeilthemen mehrere Schlagwortfolgen zu bilden, ist als Option nach § 13,3b weiterhin möglich. Um einheitliche Retrievalergebnisse zu gewährleisten, wurde das so genannte "Pleonasmusverbot" aufgehoben; d. h. ein geografischer Bezug, der im Schlagwort bereits verankert ist, wird in der Schlagwortfolge wiederholt (§ 13,2b). Anwendung der 6. Ergänzungslieferung in der DNB: Die Deutsche Nationalbibliothek wendet ab 1. April 2010 bei der verbalen Erschließung die in der 6. Ergänzungslieferung zu den RSWK vereinbarten Änderungen an.
    Im Einzelnen bedeutet dies, dass DNB die bisherige Praxis, für Teilthemen mehrere Schlagwortfolgen (früher: Schlagwortketten) zu bilden aufgibt und, soweit möglich, den Dokumentinhalt in einer Schlagwortfolge zusammenfasst (Anwendung von § 13,3a durch DNB). Ab 1. April entfallen auch die Permutationsmuster in den bibliografischen Daten der DNB. In der Schlagwortfolge werden die Schlagwörter formal nach den Indikatoren - p, g, c/k, t, s, z, f - angeordnet, es sei denn der Sinnzusammenhang erfordert eine Abweichung (vgl. § 14). Von der DNB vergebenen Schlagwortfolgen sollen künftig mehr als die bisher möglichen 6 Schlagwörter umfassen können (vgl. § 13,1 Anmerkung, üblicherweise sind bis zu 10 Schlagwörter pro Folge möglich). Die technischen Vorarbeiten im Katalogisierungssystem der DNB sind dafür aber noch nicht abgeschlossen. Alle genannten Änderungen in der Erschließungspraxis der DNB beziehen sich nur auf den Neuzugang. Von DNB bereits erschlossenes Aitelmaterial wird nicht gemäß den neuen Regeln umgearbeitet oder korrigiert. Das bezieht sich auch auf Auflagen. Neue Auflagen, die ab dem 1. April bearbeitet werden, werden nach der neuen Praxis erschlossen; die vorherigen Auflagen werden nicht rückwirkend korrigiert. Zusammenfassung der wichtigsten Punkte: 1. Pro Thema eine Schlagwortfolge (keine Parallelketten mehr); es wird in DNB § 13,3a angewandt. 2. Reihenfolge der Schlagwörter ist i. d. R. formal (p,g,c,k,t,s,z,f), es sei denn der Sinnzusammenhang erfordert etwas Anderes. 3. Keine intellektuell vergebenen Permutationsmuster mehr 4. Ein geografischer Bezug im Schlagwort wird in der Schlagwortfolge mit angegeben (vgl. § 13,2b; Wegfall des Pleonasmusverbots, als "Kibbuz-Regel" bekannt).
    7. Ergänzungslieferung der RSWK: Die Revision der grundlegenden Paragrafen 13-15 in der 6. Ergänzungslieferung hat viele weitere Änderungen im Regelwerk nach sich gezogen, die in einer 7. Ergänzungslieferung nachgeführt werden. Das gesamte Regelwerk ist im Sinne der neuen Paragrafen 13-15 zu lesen und anzuwenden. Zukünftig gibt es keine nicht permutierenden Schlagwörter mehr. Die Anlagen 2 und 5 der RSWK entfallen, ebenso zahlreiche Paragrafen, die die Permutation der Schlagwörter in der Schlagwortkette regelten. Um das Gesamtregelwerk benutzbar zu halten, ist eine Veröffentlichung einer 7. Ergänzungslieferung notwendig. Um dies zu erreichen, wurde davon abgesehen, Sachverhalte, die umfangreiche Diskussionen in der Expertengruppe Sacherschließung erfordern würden, in der 7. Ergänzungslieferung unterzubringen. Das betrifft z.B. die komplexen Regeln zur Bildung von mehreren Schlagwortfolgen bei Epochenbegriffen und Sammlungen. Das Regelwerk enthält an diesen Stellen lediglich einen Verweis auf die DNB-Homepage (http:// www.d-nb.de/standardisierung/normdateien/swd_info.htm). Dort werden dann entsprechende Absprachen dokumentiert. Links: Gesamt-RSWK auf dem Stand der 7. Ergänzungslieferung urn:nbn:de:101-2010040913 7. Ergänzungslieferung urn:nbn:de:101-2010040900 6. Ergänzungslieferung urn:nbn:de:101-2009120709 Aktuelle Absprachen zu RSWK/SWD-Ahemen http://www.d-nb.de/standardisierung/normdateien/swd_info.htm Protokolle der Expertengruppe Sacherschließung http://www.d-nb.de/standardisierung/afs/afs_prot.htm Protokolle der Arbeitsgruppe Strategie der Sacherschließung. http://www.d-nb.de/standardisierung/afs/afs_prot.htm Abschlußbericht der Arbeitsgruppe Strategie der Sacherschließung http://wiki.bsz-bw.de/lib/exe/fetch.php?media=v-team:katalogisierung:normdaten: sacherschliessung:ag_strategie_sacherschliessung_abschlussbericht.pdf"
  10. Theiselmann, R.: Geistiges Eigentum in der Informationsgesellschaft : rechtliche Implikationen der digitalen Werkverwertung (2004) 0.01
    0.00547473 = product of:
      0.02189892 = sum of:
        0.02189892 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.02189892 = score(doc=4217,freq=20.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.1935917 = fieldWeight in 4217, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=4217)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.5, S.293-294 (E.W. Steinhauer): "Bibliotheken sammeln und erschließen elektronische Dokumente. Vor allem Hochschulbibliotheken bieten darüber hinaus auf ihren Servern digitale Publikationen an. Sie agieren als »elektronische Verlage«. In der Praxis ergeben sich dabei viele Rechtsfragen, die entmutigend komplex sind. Nicht nur Bibliothekare, auch Autoren sind unsicher, welchen Schutz die auf dem Server abgelegten Werke im Internet genießen. Hier verspricht die von Rüdiger Theiselmann 2003 eingereichte Kölner Dissertation Orientierung. Vorweg sei gleich gesagt: Theiselmanns Arbeit ist nicht für Bibliothekare und Betreiber Digitaler Bibliotheken geschrieben. Im Vordergrund stehen die ökonomisch bedeutenden Verwertungen im Bereich der Unterhaltungsmedien (Musik und Film).Verallgemeinert man aber diese Ausführungen, so bieten sie auch Bibliothekaren interessante Informationen. Theiselmann hat seine Arbeit in sechs Kapitel gegliedert. Im ersten Kapitel stellt er die Werkarten des digitalen Zeitalters vor und ordnet sie den gesetzlichen Typen geistiger Schöpfung zu. Besonders interessant sind die Ausführungen zur urheberrechtlichen Einordnung von Homepages. Hier können nicht nur einzelne Seiten als Werke geschützt sein, sondern auch die Website als Internetauftritt insgesamt mit ihren Verweisungen. Sie ist bei entsprechender Gestaltungshöhe ein Datenbankwerk nach § 411 UrhG (S.33-35). Konsequenterweise kann damit eine Seitenstruktur als solche urheberrechtlichen Schutz erlangen. Das sollte zur Vorsicht mahnen, den Aufbau von Bibliothekshomepages einfach von anderen Einrichtungen ohne deren Zustimmung zu übernehmen. Im zweiten Kapitel behandelt Theiselmann die Verwertungsrechte digitaler Werke. Er differenziert zwischen einer Offline-Nutzung,alsoder Digitalisierung, und einer Online-Nutzung, nämlich der Verbreitung im Internet. Bei der OfflineNutzung gilt: Digitalisierung ist eine Vervielfältigung im Sinn von § 16 UrhG. Das leuchtet ein. Komplizierter ist die Lage bei der Online-Verwertung. Theiselmann erörtert, ob der Urheber, wenn er Inhalte ins Netz stellt, nicht allen Lesern konkludent ein Nutzungsrecht einräumt bzw. auf seine Nutzungsrechte verzichtet. Das wird verneint (S.41-45). Könnte die Nutzung durch den Erschöpfungsgrundsatz nach §17 II UrhG erleichtert sein? Mangels einer Verkörperung lehnt Theiselmann im dritten Kapitel auch dies ab (S.75). Das überzeugt. Zweifelhaft ist jedoch die Ablehnung einer konkludenten Rechteeinräumung. Die meisten Urheber stellen ihre Werke ins Netz, damit sie genutzt werden. Man kann es sogar als widersprüchliches Verhalten werten, wenn ein Urheber bei frei zugänglichen Webseiten keine den technischen Möglichkeiten des Mediums adäquaten Nutzungsrechte einräumt. Das kann hier nicht vertieft werden. Deutlich wird aber, dass eine vernünftig betriebene Digitale Bibliothek die vorgehaltenen Dokumente mit eindeutigen Lizenzen versehen sollte. Das schafft Klarheit.
    Folgt man nun Theiselmanns These, dass die User im Netz keine konkludenten Lizenzen haben und auch keine Erschöpfung eingetreten ist, ist es konsequent, die Nutzung der Netzinhalte allein an den gesetzlichen Schranken des Urheberrechts zu messen. Davon handelt das vierte Kapitel. Den Betrieb einer Digitalen Bibliothek wird man als fite-sharing einordnen können. Es liegt eine öffentliche Zugänglichmachung nach § 1511 Nr. 2 i.V.m. § 19a UrhG vor (S. 52). Da der Urheber dem Einstellen seines Werkes in die Digitale Bibliothek zugestimmt hat, gibt es hier keine Probleme. Der Leser der elektronischen Publikation aber nimmt Vervielfältigungshandlungen im Sinn von § 16 I UrhG vor (S. 53). Ob er das darf, richtet sich mangels Lizenz und Erschöpfung nach den Schrankenregelungen in §§ 44a ff. UrhG. Da man davon ausgehen kann, dass die Werke in einer Digitalen Bibliothek legal eingestellt worden sind, wird man entgegen derfür Musiktauschbörsen im Internet von Theiselmann geäußerten Ansicht (S. 95f.) eine Anwendbarkeit von § 53 UrhG bejahen können. Eine Kopie ist zulässig. Allerdings zeigt auch diese Diskussion, wie wichtig es ist, klare Lizenzen für eine Digitale Bibliothek zu formulieren. Im fünften Kapitel wird die Vergütungspflicht für Geräte, die den Zugang zu digitalen Dokumenten eröffnen, erörtert und weitgehend bejaht. Auch der Internetzugang als solcher soll vergütungspflichtig sein (S. 113l. Das kann man zur Kenntnis nehmen. Entscheidend ist die Praxis der Verwertungsgesellschaften. Die weitere Entwicklung bleibt abzuwarten.
    Die in der Praxis sehr unsichere Frage nach dem anwendbaren Recht bei der Online-Nutzung wird im sechsten Kapitel dargestellt. Nach Theiselmann soll es entgegen anderer Ansichten nicht auf den Ort der Einspeisung bzw. des Server-Standortes ankommen, sondern bei nachträglich digitalisierten Printprodukten auf das Recht des Landes, in dem das Werk erstmals gedruckt erschienen ist (S.133f). Für Bibliotheken bedeutet dies, dass bei der Digitalisierung von Aufsätzen der eigenen Hochschullehrer aus amerikanischen Zeitschriften-ein nicht seltener Fall! - nicht deutsches, sondern amerikanisches Recht anzuwenden wäre. Bei reinen Online-Werken ist die Rechtslage noch schwieriger. Die Arbeit endet mit einer Forderung nach einem weltweiten Cyberlaw (S. 139f.). Den bibliothekarischen Leser lässt das alles etwas ratlos zurück. Vor allem die Frage des anwendbaren Rechts bei der Digitalisierung widerspricht der gängigen Praxis in den Bibliotheken. Hier wird wegen der regelmäßigen Ausrichtung auf Nutzer im Inland meist deutsches Recht zugrunde gelegt. Alles andere wäre in der Praxis nicht zu leisten. Und immerhin gibt es gewichtige Stimmen in der Literatur, die dieses Vorgehen decken (vgl. Bröcker/Czychowski/Schäfer, Praxishandbuch Geistiges Eigentum im Internet, München 2003, S.92-94). Insgesamt ist Theiselmanns Arbeit sehr informativ. Sie ist nicht bloß eine wissenschaftliche Monografie, sondern über weite Strecken eine gut lesbare Einführung in das schwierigeThema des Urheberrechts im Zeitalter des Internet. Die Formulierungen sind klar und verständlich. Reichlich finden sich Argumentationshilfen, um eine bestimmte Rechtspraxis in der Bibliothek zu begründen. Kritisch ist allerdings die magere Literaturauswertung zu sehen: Es gibt immer nur einen Beleg pro Zitat. Der Leser kann nicht erkennen, ob es sich bei den angeführten Meinungen um eine herrschende Ansicht oder eine vereinzelte Minderheitenposition handelt."
  11. Georgy, U.: ¬Der Wert von Information : Thesen zum Thema (2002) 0.01
    0.005419706 = product of:
      0.021678824 = sum of:
        0.021678824 = weight(_text_:und in 1636) [ClassicSimilarity], result of:
          0.021678824 = score(doc=1636,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19164601 = fieldWeight in 1636, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=1636)
      0.25 = coord(1/4)
    
    Content
    "Möchte man den Wert von Information bestimmen, so ist es zunächst notwendig, sich über die Eigenschaften von Information Gedanken zu machen, die im folgenden in Auszügen skizziert sind: - (Digitale) Information ist eine Absatzleistung, die (fast) ausschließlich aus Dienstleistung besteht. Hierbei sei besonders darauf hingewiesen, daß Informationsdienstleistungen nicht ohne weiteres mit anderen Dienstleistungen vergleichbar sind. - Information verbleibt nach Weitergabe an einen Kunden oder Auftraggeber weiterhin beim Hersteller bzw. Dienstleister. Darin unterscheidet sich diese Dienstleistung ganz wesentlich von anderen, da die Mehrzahl von Dienstleistungen nicht ihren Besitzer wechseln kann. Bei vielen anderen Dienstleistungen, z. B. der Steuerberatung, können bei der Erstellung Erfahrungen und auch Wissen (an)gesammelt werden, die bei weiteren Mandanten wieder eingesetzt werden können, doch die individuelle Dienstleistung geht alleine an den Mandanten und müßte bei identischer Anforderung neu erstellt werden. Daraus resultiert unmittelbar eine weitere Eigenschaft: - Information kann in identischer Weise mehrfach weitergegeben bzw. verkauft werden. Hier weist Information eher einen Produkt- als Dienstleistungscharakter auf. - Information ist kein verderbliches Gut. Es schadet der Information nicht, wenn sie nicht konsumiert wird. Ebenfalls ist in vielen Bereichen das Alter der Information kein Kriterium für den Wert der Information. So sind im Patentsektor vielfach 20 Jahre alte Informationen ebenso wichtig wie Publikationen vom Vortag. - Information kann bevorratet werden, nicht jedoch die individuelle Beschaffung sowie die Erbringung der Informationsdienstleistung als solche. Damit nimmt Information wiederum eine Zwitterstellung zwischen Produkt und Dienstleistung ein. - Es ist nicht vorhersehbar, ob die gewünschte Information verfügbar ist. Sofern die gewünschte Informationsquelle dem Dienstleister oder Kunden nicht bereits bekannt ist, kann gegenüber dem Kunden keine zuverlässige Aussage darüber gemacht werden, ob die Information jemals erstellt worden ist oder ob sie sich aus anderen Informationsinhalten generieren läßt. - Es ist nicht sicher, ob die gewünschte Information beschaffbar ist. Es ist möglich, daß der Dienstleister auf die notwendigen Quellen keinen Zugriff hat oder daß sich innerhalb der durch den Kunden vorgegebenen Frist der Zugriff auf die Quellen nicht realisieren läßt. - Information kann unauffindbar sein, obwohl sie generell verfügbar ist. Zum einen können die gleichen Gründe wie zuvor genannt für die Nichtauffindbarkeit verantwortlich sein, es kann aber auch andere Gründe geben, die beispielsweise in der Qualität der Informationserfassung oder im Retrieval zu suchen sind. - Digitale Information kann in kürzester Zeit in die ganze Welt versandt werden. War früher der Informationsversand noch ein geschwindigkeitsbestimmender Schritt, so verlagert sich dieser zunehmend auf die Informationsbeschaffung. - Informationen können helfen, andere Ressourcen einzusparen oder optimiert einzusetzen und somit zur Gewinnsteigerung beitragen. Viele Produkte haben ohne Informationen keinen Wert, z. B. ein technisches Gerät ohne Bedienungsanleitung. Der Wert des Produktes ergibt sich hier erst durch die unmittelbare Kombination von Produkt und Information. Zurückkommend auf den Wert von Information bleibt festzustellen, daß der Wert von Information für jeden einzelnen eine individuelle Ausprägung aufweisen kann, d. h., daß der Wert von der Wertschätzung der Abnehmer abhängt. Zudem beinhaltet der Wert von Information zusätzlich eine zeitliche Dimension, denn der Wert kann vom Zeitpunkt abhängen, zu dem die Information erstellt, recherchiert/ermittelt, geliefert oder konsumiert wird.
  12. Ehlers, U.-D.; Becker, P.: "Didaktik!" : Interview (2005) 0.01
    0.005419706 = product of:
      0.021678824 = sum of:
        0.021678824 = weight(_text_:und in 3223) [ClassicSimilarity], result of:
          0.021678824 = score(doc=3223,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19164601 = fieldWeight in 3223, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=3223)
      0.25 = coord(1/4)
    
    Content
    "FR: Sie plädieren dafür, die Qualität für E-Learning aus Sicht des Lernenden zu beurteilen. Wie soll das gehen? Ulf-Daniel Ehlers: Wir haben rund 2000 Personen nach ihren Erfahrungen mit E-Learning befragt. Anhand der Antworten wurden verschiedene Bereiche herausgearbeitet, die von entscheidender Bedeutung dafür sind, ob E-Learning erfolgreich ist oder nicht. Was macht den Erfolg aus? Wichtig ist die Betreuung durch einen Tutor. Allerdings geht es hier nicht einfach nur darum, ob eine Betreuung angeboten wird oder nicht. Wir empfehlen, auch danach zu fragen, wie ein Kursteilnehmer sie sich wünscht, ob er sie etwa als Hilfe lediglich bei Fragen zum Stoff oder ob er eine Art Coaching will. Man muss den Lernenden genau das anbietet, was sie brauchen. Dann erhöht man die Chancen für den Lernerfolg. Wichtig ist aber auch die Art der Zusammenarbeit im Kurs. Welche weiteren Erfolgsfaktoren gibt es? Die Technik muss natürlich funktionieren und leicht zu bedienen sein. Darüber hinaus sind die Wünsche sehr individuell: Mancher möchte seinen eigenen Lernstand abspeichern können. Für einen anderen Nutzer ist das wiederum belanglos, weil er etwas anderes höher schätzt. Man darf sich an diesem Punkt aber nicht dem Irrtum hingeben, dass, nachdem zum Beispiel an der Software einer Lernplattform etwas verbessert worden ist, die Lernenden automatisch positiver über die Qualität des E-Learnings urteilten: Viel wichtiger für das Urteil der Kursteilnehmer ist die gute Didaktik. Das Primat der Didaktik ist entscheidend für den Erfolg. Was muss noch geschehen, damit E-Learning funktioniert? Wichtig ist die Gestaltung des Kurses. Auch hier sollte man die Lernenden und ihre Erwartungen einbeziehen. Genauso muss es transparente Informationen geben. Schließlich: Ein Anbieter sollte nachfragen, wie sich die Teilnehmer die Präsenzveranstaltungen wünschen, ob sie sich davon eine Kommunikation nur über den Lernstoff oder eher ein Beisammensein mit viel sozialem Austausch erwarten. Indem man diese individuellen Präferenzen beim Lernenden beachtet, verbessert man die Chancen auf einen Erfolg beim E-Leaming. Kann man nicht einfach sagen: Beim Lernen ist das gut, was der Konsument gut findet? Das funktioniert zwar bei den meisten Waren und Dienstleistungen. Bildung aber ist dafür zu komplex. Zum Beispiel: Wer ist bei einer Weiterbildung der Konsument - die Firma, die den Kurs bezahlt, oder derjenige, der ihn besucht? Wen also müsste man nach seiner Einschätzung befragen? Außerdem: Ein Erfolg in der Weiterbildung stellt sich aus Sicht des Unternehmens erst mit dem Wissenstransfer ein; der Transfer aber findet erst nach dem Seminar statt, also außerhalb der Bildungsmaßnahme. Wie soll man hier Qualität ermitteln? Noch eins: Es reicht nicht aus, einfach nur einen Teilnehmer zu befragen, was er von einem Kurs hält. Dabei kann man nämlich sein blaues Wunder erleben: Die Ergebnisse können sehr unterschiedlich sein - je nachdem, ob man den Lernenden vor oder nach der Prüfung fragt. Wie beurteilen Sie dennoch die Qualität aus der Sicht der Lernenden? Wir fragen bei den Lernenden nicht einfach ein Urteil über einen Kurs ab. Vielmehr empfehlen wir, schon in der Vorbereitung die Teilnehmer zu befragen, wie diese es am liebsten hätten. Wenn man das umsetzt, werden die Chancen auf einen Lernerfolg erheblich verbessert. Bisher hingegen hieß es immer: Wozu soll ich meine Schüler fragen, wie sie sich das Lernen wünschen? Die wissen das doch gar nicht. Wir sagen: die wissen das sehr wohl. Wie wollen Sie ihre Konzepte in die Praxis umsetzen? Wir sind unter anderem dabei, einen europäischen Verband für Qualität im E-Learning und das Gütesiegel E-Learning zu gründen. Damit möchten wir auf einer breiten Basis Lernende informieren und Anbieter beraten."
  13. Röttgers, J.: Suchen statt sortieren : Google erfindet herkömmliche Mailsoftware für das Web neu, und die Konkurrenz wird nervös- Gmail im Praxistest (2004) 0.01
    0.005419706 = product of:
      0.021678824 = sum of:
        0.021678824 = weight(_text_:und in 393) [ClassicSimilarity], result of:
          0.021678824 = score(doc=393,freq=10.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.19164601 = fieldWeight in 393, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=393)
      0.25 = coord(1/4)
    
    Content
    "Überquellende E-Mail-Postfächer dürften bald der Vergangenheit angehören. Nicht weil die Zahl der eingehenden Nachrichten sinkt - der Speicherplatz wird größer. So stellt der Portal-Anbieter Yahoo seinen Nutzern 100 Megabyte zur Verfügung, bislang waren es knapp bemessene sechs Megabyte. Kunden des US-Internetzugangs bekommen sogar ganze zwei Gigabyte - ein derart großzügiges Angebot ist einzigartig. Die deutliche Aufstockung kommt nicht überraschend. Yahoo reagiert auf den neuen Gmail-Dienst von Google mit einem satten Tausend-Megabyte-Speicher. Das Projekt steckt zwar noch in der Testphase; Interessierte können nur mit persönlichen Einladungen teilnehmen. Doch schon jetzt befürchten Webmail-Anbieter, die Firma Google könnte mit Gmail ähnlich dominant werden wie mit ihrer Suchmaschine. - Yahoo und Web.de ziehen nach Wie Yahoo reagieren andere Anbieter vorsorglich mit Speicher-Geschenken. So bestätigt die deutsche Firma Web.de auf Anfrage, den Nutzern ihres kostenlosen FreemailDienstes ebenfalls bald mehr Platz für ihre Post zur Verfügung zu stellen. Für Firmen wie Web.de, GMX oder auch Lycos ist ein solcher Schritt nicht ohne Risiko. Reichlich Platz gab es dort bisher nur für zahlende Kunden. Dabei dient der Extra-Speicher als eine Art Köder, um den Nutzer für weitere Bezahlofferten zu begeistern. Wer erst einmal fünf Euro pro Monat für den Mail-Zugang ausgibt, wird eher auf die kostenpflichtigen DSL-, SMS- oder Telefondienste des jeweiligen Anbieters zugreifen, so die Hoffnung. Google dagegen setzt auf ein Geschäftsmodell, dass ganz auf Werbung aufbaut. Gmail-Kunden bekommen neben ihren E-Mails kontext-abhängige Textanzeigen eingeblendet, wie sie auf Google-Suchseiten erscheinen. Um so viele Anzeigen wie möglich einblenden zu können, setzt Google komplett auf einen Web-basierten Zugriff. Anbieter wie GMX oder Web.de erlauben ihren Kunden dagegen, Post auch mit Software wie Outlook oder Apple Mail auf den eigenen Computer zu übertragen. Gmail versucht dagegen, die Funktionen eines E-Mail-Programms im Web neu zu erfinden. Dazu gehören etwa Tastaturkürzel zur schnellen Bedienung. Die Oberfläche selbst ist Google-typisch schlicht und funktionell. Gmail verzichtet zudem fast vollkommen auf Sortierfunktionen. Während andere Anbieter auf Filter und Ordner setzen, um den Überblick zu erleichtern, wirft Gmail alle Nachrichten in ein einziges Fach. Dort lassen sich bestimmte Briefe mit Google-Suchtechnik aufspüren - was selbst bei Tausenden Nachrichten nur Sekundenbruchteile dauert. Nicht weit verbreitet ist bislang das Prinzip der Konversationen: E-Mails, die sich aufeinander beziehen, stellt Google gemeinsam dar. Reagiert jemand auf eine Nachricht, befindet sich die Antwort immer unter dem Original. Längere Briefwechsel bleiben übersichtlich, weil gelesene Beiträge automatisch ausgeblendet werden. Am meisten Schlagzeilen macht Gmail freilich mit seinen Werbeeinblendungen. Um die Anzeigen zielgruppengerecht auszuliefern, durchsucht Google die Mails nach Stichworten. Schwärmt ein Freund etwa detailliert über seinen neuen Computer, bekommen Gmail-Nutzer ein paar Anzeigen für ähnliche Modelle eingeblendet. Datenschützer sehen darin empfindlichen Eingriff in die Privatsphäre. Eine kalifornische Senatorin entwickelte sogar ein Gesetz, dass Googles Rechte im Umgang mit den Daten seiner Nutzer einschränken soll. Der kalifornische Senat hat schon zugestimmt, nun ist das Parlament des Bundesstaats am Zuge. Die in San Francisco ansässige Netz-Bürgerrechtsorganisation EFF kritisiert das Gesetz jedoch als un angebracht. Sprecherin Cindy Cohn sagt: "Das Problem sind nicht Google oder andere E-Mail-Anbieter, sondern die unvollständigen und widersprüchlichen DatenschutzGesetze der USA." Statt allein Google in die Pflicht zu nehmen, sollten die Rechte der Nutzer grundsätzlich aufgewertet werden - auch gegenüber Daten sammelnden staatlichen Stellen."
  14. Jäger, K.: Seele gesucht (2001) 0.01
    0.0051937844 = product of:
      0.020775137 = sum of:
        0.020775137 = weight(_text_:und in 1895) [ClassicSimilarity], result of:
          0.020775137 = score(doc=1895,freq=18.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.1836572 = fieldWeight in 1895, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=1895)
      0.25 = coord(1/4)
    
    Content
    "Wer angestrengt nachdenkt, zermartert sich das Hirn, heißt es. Das Gehirn produziert aber nicht nur die Gedanken, sondern auch denjenigen, der diese Gedanken denkt: mich. Davon geht jedenfalls die Neurophilosophie aus. Dieser jungen philosophischen Richtung zufolge produziert das Gehirn seine Seele, also das IchBewusstsein im Menschen. Ihr naturwissenschaftliches Pendant, die Neurobiologie, ist auf dem besten Wege dazu, die komplizierten Vorgänge, die die Seele hervorbringen, an echten Gehirnen experimentell nachzuweisen. Skeptiker werfen den Hirnforschern jedoch vor, fälschlicherweise von chemischen Hirnprozessen auf das Bewusstsein zu schließen. Der Neurophilosoph Thomas Metzinger, Professor für theoretische Philosophie an der Universität Mainz, charakterisiert das erlebte Ich-Gefühl als ein "Resultat von Informationsverarbeitungsvorgängen im zentralen Nervensystem" Diese Vorgänge erschaffen das Ich quasi als virtuelles Organ. Eine zentrale Eigenschaft des Ich ist es, nicht zu bemerken, dass das Gehirn es produziert. Es verleugnet seinen eigenen Hersteller konsequent. Deshalb hat das Ich den Eindruck, die Welt um sich herum direkt mit seinen Sinnesorganen wahrzunehmen und seine eigenen Gedanken zu produzieren. Es hält sich für den großen Steuermann des Körpers, für die oberste Kontrollinstanz von Denken, Planen und Handeln. Neurobiologen haben herausgefunden, dass nicht bewusstseinsfähige Hirnareale wie die Basalkerne und der Thalamus das Ich-Bewusstsein steuern. Aus ihnen kommen die Signale dafür, dass wir beispielsweise willentlich den Arm heben.,Professor Gerhard Roth, Neurobiologe am Hirnforschungszentrum der Universität Bremen, ist es gelungen, experimentell nachzuweisen, dass die willkürlichen Handlungen auf "Einflüsterungen des Unbewussten" zurückgehen. "Der Willensakt tritt auf, nachdem das Gehirn bereits entschieden hat, welche Bewegungen es ausführen wird", so der Hirnforscher. Dies ist das Ergebnis einer Reihe von Experimenten, bei denen die Testperson möglichst schnell einen linken oder rechten Knopf drücken musste, je nachdem, welches Hinweiszeichen leuchtete. Bildgebende Messverfahren machten Hirnaktivität sichtbar. Diejenigen Hirnareale, die unbewüsste Handlungen produzieren, waren immer einen Tick vor denen aktiv, die das Bewusstsein herstellen. Zuständig für die Bewusstseinsproduktion ist die Hirnrinde. Sie sieht aus wie das Innere einer Walnuss und liegt auf den anderen Hirnteilen wie eine Perücke auf dem Kopf. Das Ich-Gefühl kommt aus dem vordersten Teil der Hirnrinde, der präfrontalen Cortex. Dieses Ich-Zentrum ist beim Kleinkind im Alter von etwa drei Jahren ausgereift. Erst dann, so Roth, "lässt das menschliche Kind seine nicht menschlichen Primatengenossen hinter sich".
    Der Säugling hingegen hat noch kein Ich-Bewusstsein und wird wie die Affenbabys von seinen Wahrnehmungen, Emotionen und automatischen Bewegungsmustern regiert. Bewusstsein entsteht, indem unterschiedliche Hirnareale etwa 40-mal pro Sekunde ihre Aktivitäten in die Hirnrinde projizieren. Das Ich-Zentrum bündelt die Einzeleindrücke zu einem einheitlichen Gesamtbild, das wir als Ich-Erlebnis wahrnehmen. Meistens haben wir nur ein Ich. Aber unter unaushaltbaren Lebensbedingungen, oft in Verbindung mit sexuellem Missbrauch, versucht das Gehirn, den Leidensdruck mit einem Trick zu lindern. Anstelle eines Ichs bildet es mehrere iche in seinem Körper aus, auf die es die Last verteilt. Diese Ich-Störung fasst die Psychologie unter dem Begriff Multiple Persönlichkeit zusammen. Von ihrem Ziel, eine exakte Bewusstseinslandkarte des Gehirns erstellen zu können, sind die Neurowissenschaftler noch weit entfernt. Es sei aber nur noch eine Frage der Zeit. Dann, so meint Neurophilosoph Metzinger ist das "subjektive Erleben ein Naturphänomen wie viele andere, ein Phanomen von großer Schönheit und Tiefe, aber eben auch ein entzaubertes Phänomen, eines, das uns keine prinzipiellen Rätsel mehr aufgibt. Dann würde der klassische Begriff der Seele endgültig zu einem leeren Begriff". Die Messverfahren zur biologischen Entschlüsselung der Seele haben sich im letzten Jahrzehnt erheblich verfeinert. Die Positronenemissionstomographie (PET) beispielsweise ist ein bildgebendes Verfahren, mit dessen Hilfe die Stoffwechselvorgänge im Gehirn sichtbar gemacht werden. Die Forscher spritzen in das Blut der Testperson eine schwach radioaktive Substanz. Dann löst der Proband eine bestimmte Aufgabe. An seinem Kopf sind Elektroden befestigt. Diese machen die dabei ablaufenden Hirnaktivitäten auf einem Computerbildschirm sichtbar. Die Neurobiologen gehen davon aus, dass in denjenigen Hirnarealen, die an der Lösung der Aufgabe beteiligt sind, der Stoffwechsel höher ist als in anderen Hirnbereichen. Diese Areale hebt das Monitorbild hervor. Kritik an diesem Verfahren übt der Kölner Philosophieprofessor Günter Schulte.
    Er gibt zu bedenken, dass die Grundannahnie, der Hirnstoffwechsel sei bei bewusster Hirntätigkeit erhöht, nicht bewiesen ist. Genauso gut könnte es sein, dass die Hirnzellen sich so auf die nächste Aufgabe einstellen und den Abfall einer früheren Arbeit beseitigen. Dann würde der Stoffwechsel nicht die bewusste Bewältigung einer Aufgabe anzeigen, sondern genau umgekehrt, das Yergessen, Loschen einer Information bewirken". Schultes Kritik setzt an einem. Grundproblem der Naturwissenschaften an, das sie selbst "explanatory Gas'' nennen. Diese Erklärungslücke besteht darin, dass objektive Beobachtungen nicht mit dem Innenleben einer Person gleichzusetzen sind. Auch wenn die biochemischen Hirnprozesse bis ins Detail erforscht sein sollten, sagen sie nichts über die Inhalte subjektiven Erlebens aus. Für Schulte ist "das Objektive nur eine Seite der Welt; ich selbst bin auf der anderen" Er wirft der Neurobiologie vor, zwar die physischen Bedingungen der Seele erforschen zu können. Daraus folge aber nicht automatisch, dass die Seele auch etwas Physisches sei. Schon im vorigen Jahrhundert wies der Philosoph Arthur Schopenhauer auf das Hirnparadox hin. Danach ist das Gehirn, das der Hirnforscher objektiv untersucht, allein das Produkt seiner Vorstellung. Das erforschte Hirn gehört nämlich zu seiner eigenen, hirnproduzierten Wirklichkeit. Schulte bezeichnet deshalb die Hirnforschung auch als "Neuromythologie" Sie erzähle Geschichten, die die Seele erklären sollen. So betrachtet, erfüllt die Hirnforschung eine religiöse Funktion. Sie bietet ein Erklärungsmodell für die menschliche Existenz. Der Glaube an sie wirkt beruhigend, aber auch betäubend. Wer an den Hirnmythos vom Ich glaubt, dem springt vielleicht nicht ab und an die blitzartige Erkenntnis von der Ungeheuerlichkeit des eigenen Daseins in den Nacken. Für den Existenzialisten Schulte sind die großen Fragen wie die nach der Seele nicht dazu da, "um beantwortet zu werden. Wir bedürfen ihrer Ungewissheit, um geistig lebendig zu bleiben", lautet sein Credo."
  15. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.0050888485 = product of:
      0.020355394 = sum of:
        0.020355394 = weight(_text_:und in 5987) [ClassicSimilarity], result of:
          0.020355394 = score(doc=5987,freq=12.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17994657 = fieldWeight in 5987, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5987)
      0.25 = coord(1/4)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  16. Löw, W.: ¬Der Weg zum Wissen : Eine Betrachtung aus biowissenschaftlich-neurobiologischer Sicht (2001) 0.00
    0.004896747 = product of:
      0.019586988 = sum of:
        0.019586988 = weight(_text_:und in 5596) [ClassicSimilarity], result of:
          0.019586988 = score(doc=5596,freq=4.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17315367 = fieldWeight in 5596, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=5596)
      0.25 = coord(1/4)
    
    Abstract
    Der Verfasser versucht nach einem Literaturüberblick eigene Daten in den Kontext zu stellen. Man darf sicher behaupten, dass Wissen die Basis des heutigen menschlichen Lebens ist. Die Spur des Wissens zu verfolgen scheint nicht ganz einfach, weil es bereits (Vor-)Wissen bedarf, um Wissen zu erlangen. Dazu muss man Fragen stellen - oder anders gesagt: es muss schon viel Information angehäuft, strukturiert worden sein. Daher berührt die erste These die Schwierigkeiten von Menschen, die weit vor den "Forschungsfronten" arbeiten, wer "Wissen schafft, muss besondere Fähigkeiten zum Fragen stellen entwickeln, aber insbesondere auch zum Wahrnehmen. Es gibt Schwellenwerte der Wahrnehmung' neuer wissenschaftlicher Erkenntnisse. Die zweite These: Eine wichtige Rolle zur Überwindung dieser Schwellenwerte spielt jene Kommunikationsform, die am ältesten ist, das Gespräch. Denn die heute zu durchschreitenden Informationswüsten sind am besten mit dem persönlichen Rat zu überwinden. Die vorliegenden Daten aus Befragungen mit rund hundert Wissenschaftlern stützen dies. Nach wie vor - trotz moderner Medien wie Internet, CD-ROM und allen möglichen Datenbanken - wird das Gespräch gesucht. Der Autor sieht das Gespräch (informeller Informationskanal) zum einen - verhaltensbiologisch - als eine Urform menschlicher Kommunikation, d. h. uns ist "angeborenermaßen" eine Präferenz mitgegeben. Zum anderen ist die persönliche Kommunikation ein Wichtungsmaßstab für das" Wahr-nehmen'' im Uberangebot von Printinformationen (formeller Informationskanal), denn nach wie vor ist die Zeitschrift wichtigste Quelle für den Wissenschaftler
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.1, S.5-14
  17. fwt: Bewegtes Muster löscht den Hintergrund : Hirnforschung (2001) 0.00
    0.004896747 = product of:
      0.019586988 = sum of:
        0.019586988 = weight(_text_:und in 6379) [ClassicSimilarity], result of:
          0.019586988 = score(doc=6379,freq=4.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17315367 = fieldWeight in 6379, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=6379)
      0.25 = coord(1/4)
    
    Content
    "Das Hirn kann Teile des Sehfeldes gezielt ausblenden, um mit der großen Menge der über die Augen aufgenommenen Sinnesreize fertig zu werden. Das berichtetenjetzt Yoram Bonneh vom Smith-Kettlewell Augenforschungsinstitut in San Francisco (USA) und seine Kollegen vom israehscheu Weizmann Institut in der britischen Fachzeitschrift Nature (Bd. 411, Nr. 6839). Die Forscher präsentierten ihren Versuchspersonen ein rotierendes Muster blauer Flecken vor einem Muster feststehender gelber Punkte. Dabei berichteten die Probanden, dass die gelben Punkte immer wieder für mehrere Sekunden zu verschwinden schienen. Dieses Verschwinden von Objekten in ganzen Teilen des Gesichtsfeldes entspricht nicht dem Effekt, der zu erwarten wäre, wenn die optischen Reize sich bereits in der Netzhaut beeinflussten, erklären die Wissenschaftler. Vielmehr deute es darauf hin, dass das Gehirn ganze unwichtige" Bereiche ausblende, um mit der großen Menge der auf es einströmenden Sinneseindrücke fertig zu werden. Dabei übernehme der intensivere Reiz die gesamte Aufmerksamkeit und blende in einem Teil des Gesichtsfeldes den ruhig stehenden Rest aus. Diese bewegungsinduzierte Blindheit" könnte im täglichen Leben viel verbreiteter sein als bisher geglaubt, meinen die Forscher. Beispielsweise bei Fahrten auf Autobahnen, wo die Landschaft sich rasch bewege, aber der vorausfahrende Wagen sich in relativer Ruhe befinde. Sie könnte zudem Hinweise geben auf bestimmte Krankheitsformen, bei denen die Patienten nicht mehr in der Lage sind, sich auf mehr als ein Objekt zu konzentrieren"
  18. Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002) 0.00
    0.004896747 = product of:
      0.019586988 = sum of:
        0.019586988 = weight(_text_:und in 569) [ClassicSimilarity], result of:
          0.019586988 = score(doc=569,freq=16.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17315367 = fieldWeight in 569, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=569)
      0.25 = coord(1/4)
    
    Abstract
    Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
    Content
    "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
    Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
    Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
  19. dpa; Weizenbaum, J.: "Internet ist ein Schrotthaufen" (2005) 0.00
    0.004896747 = product of:
      0.019586988 = sum of:
        0.019586988 = weight(_text_:und in 1560) [ClassicSimilarity], result of:
          0.019586988 = score(doc=1560,freq=4.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17315367 = fieldWeight in 1560, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1560)
      0.25 = coord(1/4)
    
    Content
    "Das Internet ist nach Ansicht des bekannten US-Computerexperten und Philosophen Prof. Joseph Weizenbaum ein "Schrotthaufen" und verführt die Menschen zur Selbstüberschätzung. Weizenbaum, der in den 60er Jahren das Sprachanalyse-Programm "ELIZA" entwickelte, sprach im Rahmen einer Vortragsreihe im Computermuseum in Paderborn. "Das Ganze ist ein riesiger Misthaufen, der Perlen enthält. Aber um Perlen zu finden, muss man die richtigen Fragen stellen. Gerade das können die meisten Menschen nicht." Verlust von Kreativität Weizenbaum sagte weiter: "Wir haben die Illusion, dass wir in einer Informationsgesellschaft leben. Wir haben das Internet, wir haben die Suchmaschine Google, wir haben die Illusion, uns stehe das gesamte Wissen der Menschheit zur Verfügung." Kein Computer könne dem Menschen die eigentliche Information liefern. "Es ist die Arbeit der Interpretation im Kopf, die aus den Zeichen, die Computer anzeigen, eine Information macht." Der emeritierte Forscher des Massachusetts Institute of Technology kritisierte scharf das frühe Heranführen von Kindern an den Computer: "Computer für Kinder - das macht Apfelmus aus Gehirnen." Die Folge sei unter anderem, dass Studenten zum Teil bereits Programmen das Zusammenstellen der Hausarbeit überlasse. Menschen lernten in den Medien eine Hand voll Klischees, die auch in der Politik-Berichterstattung immer wieder auftauchten. Der Mangel an echter Aussage erkläre etwa den knappen Wahlausgang der USA, dessen 50:50-Proporz Ahnlichkeit mit Zufallsexperimenten habe."
  20. Hirsch, H.: Datenbanken für professionelle Nutzer : ein Check der Preispolitik im sommer 2003 (2003) 0.00
    0.004896747 = product of:
      0.019586988 = sum of:
        0.019586988 = weight(_text_:und in 2010) [ClassicSimilarity], result of:
          0.019586988 = score(doc=2010,freq=4.0), product of:
            0.1131191 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.051038075 = queryNorm
            0.17315367 = fieldWeight in 2010, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=2010)
      0.25 = coord(1/4)
    
    Abstract
    Die Anbieter professioneller Wirtschaftsdaten sind in den vergangenen Jahren verstärkt dazu übergegangen, ihre Informationen online verfügbar zu machen. Das war bis Ende der 90er Jahre nicht selbstverständlich, da beispielsweise die "Hersteller" von Adress- sowie Firmeninformationen lange Zeit mit CD-ROMS (später dann DVDs) operierten. Einer der wesentlichen Verbesserungsvorschläge in der grundlegenden Untersuchung "Firmen-CDs in D-A-CH" von Hirsch & Gayer Consulting (HGC) aus dem Jahre 2000 zielte deshalb auch darauf ab, die Informationen online abrufbar zu stellen bei gleichzeitig möglichst variablem Pricing. Lauteten die Einwände der Branche zuerst, dass man im Internet nicht all die Funktionalitäten bieten könne, wie diese der Nutzer von den DVDs gewohnt sei, so hat in den vergangenen drei Jahren die Technik dieses Problem anscheinend meistern können; denn die Menüführung ist online mittlerweile häufig identisch mit dem altgewohnten Bedienkomfort. Natürlich kann es im Netz hin und wieder zu Verzögerungen kommen, je nachdem ob man nun via DSL oder "nur" ISDN online geht. Die Aussagekraft des Angebots im Internet hat heute zumeist denselben Level erreicht wie vormals auf den "Scheiben". Im folgenden Text steht die Preispolitik der einzelnen Anbieter im Vordergrund der Betrachtung (ausgehend von der Grundannahme, dass die zur Verfügung gestellte Qualität den Ansprüchen der jeweiligen Nutzergruppe genügt). Im Fokus der Analyse standen 33 Datenbanken. Diese wurden in drei Gruppen - in Abhängigkeit von der Höhe der Grundgebühr - unterschieden (siehe enthaltene Tabelle)
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.8, S.481-482

Authors

Languages

  • e 32
  • m 3

Types

  • a 8461
  • m 1855
  • el 869
  • x 573
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications