Search (4748 results, page 196 of 238)

  • × year_i:[2000 TO 2010}
  1. Neuberger, C.: ¬Das Ende des »Gatekeeper«-Zeitalters (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 4505) [ClassicSimilarity], result of:
          0.028814849 = score(doc=4505,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 4505, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4505)
      0.25 = coord(1/4)
    
    Abstract
    Werden Weblogs, also Internet-Tagebücher, im Jahr 2007 wichtigere Nachrichtenangebote sein als Tageszeitungen? Darüber haben Martin Nisenholtz, Geschäftsführer von New York Times Digital, und Dave Winer vom Software-Unternehmen Userland.com eine Wette abgeschlossen und jeweils tausend Dollar gesetzt. Entschieden werden soll die Wette durch Google-Suchanfragen, mit denen Beiträge zu fünf wichtigen Nachrichtenthemen im Internet recherchiert werden sollen. Dabei wird verglichen, ob die New York Times oder Weblogs höhere Plätze in den Ergebnislisten der Suchmaschine erzielen. Nachzulesen ist die Wette auf der Website der »Long Bets Foundation«. Hinter der Wette verbirgt sich die folgende Frage: Wandelt sich die Vermittlung zwischen denen, die etwas mitzuteilen haben, und denen, die etwas aufnehmen, in der aktuellen Internet-Öffentlichkeit? Wird der traditionelle Journalismus im Internet an Bedeutung verlieren?
  2. Roth, J.: ¬Der digitale Zeitungsmarkt (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 4510) [ClassicSimilarity], result of:
          0.028814849 = score(doc=4510,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 4510, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4510)
      0.25 = coord(1/4)
    
    Abstract
    In Deutschland hat sich das Internet durchgesetzt. Rund 36 Millionen Deutsche sind im Netz (vgl. van Eimeren/Gerhard/Frees 2004). Damit hat sich das neue Medium schneller verbreitet, als einst das Fernsehen. Dieses gibt es nun auch online. Genauso wie die Tageszeitung. Ob die Informationsangebote von Verlagen Zeitung genannt werden dürfen, ist lange diskutiert und sogar gerichtlich geklärt worden (vgl. Roth 2004). Fakt ist: Tageszeitungsverlage versuchen online Leser zu gewinnen. Fast alle Tageszeitungen sind deswegen im Internet aktiv. Die Schweriner Volkszeitung war die erste deutsche Tageszeitung, die sich 1995 auf die Datenautobahn wagte. Ihr folgten seitdem allein 304 Lokal- und Regionalzeitungen. (vgl. Roth 2005) Welche Strategien hinter den Online-Angeboten stehen kann im Folgenden aufbauend auf zwei Vollerhebungen für den lokalen und regionalen Markt skizziert werden.
  3. Kamerbeek, I.; Schetsche, M.: Webism Movement : Die Netzkunst des neuen Jahrhunderts (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 4524) [ClassicSimilarity], result of:
          0.028814849 = score(doc=4524,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 4524, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4524)
      0.25 = coord(1/4)
    
    Abstract
    Netzkunst ist heute - im Gegensatz zur konzeptionellen »net.art« der 90er Jahre - ein Sammelbegriff für Kunstschaffen, das sich in vielfältiger Form der Netzwerkmedien bedient. Visuelle Kunstwerke nutzen das Netz primär auf dreierlei Weise für die Kunstproduktion - darin bildet sich gleichzeitig eine erste Unterscheidung verschiedener Typen des Netzkunstschaffens ab: 1. Das Netz als Lieferant von Rohmaterial: Aus dem Netz stammende Daten (etwa Fotos) werden als Rohmaterial des künstlerischen Werkes verwendet. Vorhandene Netzinhalte werden mit künstlerischer Intention wiederverwertet und verwandelt. 2. Das Netz als Plattform synchronen Kunstschaffens: Künstler stimmen ihre Arbeit thematisch und/oder formal mittels Netzwerkmedien ab und präsentieren die Ergebnisse ihrer Kooperation in virtuellen Räumen. 3. Das Netz als Medium der Zusammenarbeit: Vermittelt über die Netzwerkmedien werden - nacheinander oder interaktiv - gemeinsame Kunstobjekte kreiert.
  4. Hampel, M.: Krieg der Einträge : Bei Wikipedia schreiben nicht nur Wissensmissionare, sondern auch Lobbyisten (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 4722) [ClassicSimilarity], result of:
          0.028814849 = score(doc=4722,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 4722, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4722)
      0.25 = coord(1/4)
    
    Abstract
    Die Wikipedia-Idee, das verstreute Wissen der Menschheit zu bündeln, birgt neben Chancen auch Risiken. Problematisch werden die Einträge, wenn sich Interessen- und Lobbygruppen einschalten.
    Content
    "Der Name ist griffig "Edit War" nennt es die Wikipedia-Gemeinde, wenn sich die Bearbeiter eines Artikels in der Online-Enzyklopädie partout nicht auf eine Definition einigen können. Krieg der Einträge. Und wie bei so vielen Kriegen geht es auch hier meist um Glaubensfragen. Beispiel Scientology: Gehört es in ein Lexikon, dass die umstrittene Organisation in Ungarn, Mexiko, Taiwan und vielen anderen Ländern als gemeinnützig anerkannt wird? Oder steckt dahinter ein Manöver, um Scientology zu verharmlosen? Kann man Scientology in Wikipedia als religiöse Organisation bezeichnen, wenn sie in Deutschland als solche nicht anerkannt ist? Die Antwort ist auch das Problem: ja und nein. Je nach Uhrzeit, zu der man derlei pikante Begriffe bei Wikipedia nachliest, variieren die Inhalte, abhängig vom jeweiligen Bearbeiter. Das kann ein Scientologe ebenso wie ein Sympathisant, ein interessierter Laie oder ein Experte mit detailliertem Hintergrundwissen'sein. Der. Nutzer kann das auf den ersten Blick nicht erkennen. "Fahrlässig" nennt es deshalb Elisabeth Bauer, Administratorin der deutschen Wikipedia-Ausgabe, .bei streitbaren Inhalten nur den aktuellen Eintrag anzuschauen. Vielmehr sollten die Nutzer auch die vorhergehenden Versionen :zumindest überfliegen, um zu erkennen, ob der aktuelle Beitrag tendenziös sein könnte. Das freilich kästet Zeit und beraubt die Wikipedia einer ihrer entscheidenden Stärken: der schnellen Verfügbarkeit von Wissen. Je umstrittener das Thema, desto leidenschaftlicher werden die Edit-Wars geführt. Wer sich per Wikipedia über die Geschichte der Türkei kundig machen will, erfährt mal vom Völkermord an den Armeniern im Jahr 1915, mal nicht. Je nachdem, ob der jüngste Bearbeiter den türkischen Nationalisten, die den Genozid verneinen, nahe steht odernicht. Wer weiter recherchiert und sich den Eintrag zum Genozid an den Armeniern anschaut, sieht die Grabenkämpfe um das zu sozialisierende Wissen. Nennt man es einen Mord an den Armeniern, war es Tötung im Rahmen von Kämpfen? Wenn derlei Auseinandersetzungen darin münden, dass beide Seiten sich blockieren, und immer wieder die Änderung rückgängig machen, wird die Angelegenheit in das zu jedem Artikel bereitstehende Diskussionsforum verlegt. Wenn das nicht hilft, dann haben Adminis toren wie Bauer das Recht, die Mitglieder zu sperren, "bis die sich beruhigt haben".
    In der Regel aber funktioniere das Prinzip, dass ich die neutrale Mehrheit gegen interessengeleitete Minderheiten durchsetzt, ganz gut, sagt Bauer. Durch die Vielzahl der Bearbeiter steige auch der soziale Druck auf diejenigen, die versuchen, die Wikipedia-Artikel als Propaganda-Instrument zu missbrauchen. Je brisanter ein Thema ist, desto schneller geht die Bearbeitung und desto stärker muss die Wikipedia-Gemeinde aufpassen, dass die Neutralität des Eintrags gewahrt bleibt. Der erste Eintrag zu den Bombenattentaten von London vom 7. Juli dieses Jahres beispielsweise war innerhalb von weniger als acht Stunden mehr als 2.000 Mal geändert worden. Dass die Administratoren da die Übersicht behalten, ist unwahrscheinlich. Doch die Masse der User werde schon als Filter funktionieren; meint Bauer. Dass man mit der Manipulation von Wikipedia-Einträgen Werbung für seine Sache machen kann, scheint sich auch in der politischen Landschaft der Bundesrepublik herumgesprochen zu haben. Vor der Landtagswahl in Nordrhein-Westfalen hatten sich die Veränderungen in den Einträgen zu den Spitzenkandidaten Jürgen, Rüttgers (CDU) und Peer Steinbrück (SPD) gehäuft. So war in Rüttgers Eintrag der Verweis auf dessen umstrittene "Kinder-statt-Inder-Kampagne" wiederholt gelöscht worden. Bei Steinbrück war bei der Auflistung seiner Tätigkeiten außerhalb der politischen Arbeit der Verweis darauf, dass diese ehrenamtlich geleistet werden, entfernt worden.Vieles deutet darauf hin, dass die Urheber mancher Manipulation auf Rechnern des Deutschen Bundestags gearbeitet haben. Dass die Wikipedia-Administratoren die Notbremse ziehen und einen gesamten Ein-trag aus dem Netz nehmen mussten, kam in der Geschichte der deutschen Wikipedia-Edition bislang erst einmal vor. Der Artikel "Sexueller Missbrauch von Kindern" war wiederholt mit pseudowissenschaftlichen Studien angereichert worden, die die Folgen des Missbrauchs verharmlosten. Die Administratoren sahen im Februar dieses Jahres keine andere Möglichkeit, als den kompletten Eintrag zu löschen und eine Minimal-Version ins Netz zu stellen. Sie ist nicht einmal mehr zehn Zeilen lang und kann nicht weiter bearbeitet werden."
  5. Lanier, J.; Beuth, P.; Wolff, T.: "Wir spielen mit dem Feuer" (2001) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 5091) [ClassicSimilarity], result of:
          0.028814849 = score(doc=5091,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 5091, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5091)
      0.25 = coord(1/4)
    
    Abstract
    Jaron Lanier, genialer Computerwissenschaftler, Musiker und Philosoph, entwickelte mit anderen Internet-Pionieren die virtuelle Realität - was daraus wurde, entsetzt ihn. Ein FR-Gespräch über die unheimliche Macht sozialer Netzwerke.
    Content
    "Mr. Lanier, waren Sie heute schon im Netz? Ja, ich liebe das Internet doch. Heute früh habe ich Websites besucht, die mir bei der Frage weiterhelfen, wie man alte Harfen restauriert - wie Sie vielleicht wissen, bin ich ja unter anderem Musiker und sammle alte Instrumente. Waren Sie auch auf Social Network-Seiten wie Facebook oder Twitter? Nein, und falls Sie mich dort gesehen haben sollten: Das sind alles Fake-Seiten von Leuten, die unter meinem Namen etwas ins Netz stellen. Es sind meist freundliche Fakes - aber die Seiten stammen definitiv nicht von mir. Ich benutze so etwas nicht. Warum nicht? Millionen User finden Facebook ganz praktisch, um mit Freunden und entfernten Verwandten in Verbindung zu bleiben. Natürlich ist es eine bequeme Sache - und ich habe gar nichts gegen seine Funktion als verbindendes Medium - aber schauen Sie sich an, wozu es wirklich dient: Daten von seinen Nutzern zu sammeln, um sie an Dritte weiterzugeben. Du als Nutzer bist also gar nicht der Kunde von Facebook - du bist das Produkt, das sie verkaufen. Du wirst als Paket an jemanden verkauft, den du nicht mal kennst. Aber das Ganze kostet die Nutzer doch nichts. Das ist eine Illusion. Die Leute glauben nur, dass es umsonst ist. Das ist doch absurd. Umsonst gibt es nichts. Irgendwo gibt es immer einen Kunden, der dafür zahlt, dass du als Nutzer manipuliert wirst. In welcher Weise werden die Leute manipuliert? Facebook ist so angelegt, dass deine Wahrnehmung eingeengt wird. Bestimmte Freunde werden dir nahegelegt, die dir angeblich ähnlich sind; bestimmte Dinge werden dir empfohlen, weil sie zu dir passen. Dadurch nimmt man immer weniger von der Welt wahr. Eine der Folgen von Facebook ist, dass deine Welt in immer kleinere Kistchen verpackt wird, in Aspekte der Welt, die du kennst und mit denen du zufrieden bist. Dadurch hast du weniger Anreiz, etwas auf eigene Faust zu entdecken. Die Leute sind nicht mehr sie selbst, sondern Teile einer große Datenbank.
    Aber Sie als real existierender Mensch werden doch nicht auf Einzelaspekte reduziert und verkauft, sondern nur Ihr digitales Alter Ego - ein kleiner Datensatz, der Sie auf Facebook repräsentiert. Da gibt es doch noch einen ziemlichen Unterschied. Aber der wird immer kleiner. Ob du einen Partner suchst oder einen Job oder bloß Nachrichten: Die ganze Kultur wird durch Portale wie Facebook gefiltert. Das finde ich schon problematisch. Es gibt allerdings eine Grenze, die durch das Alter definiert wird. Leute, die schon ein Leben vor Facebook hatten, werden weniger beeinflusst. Sie haben ja schon Freunde im echten Leben gefunden, zu denen sie übers Netz Kontakt halten. Aber wenn du 16 bist und deine Freunde durch diesen mit Reklame durchsetzten Filter erst kennen lernst, dann verändert sich dein Wesen wirklich. Woran machen Sie das fest? Ich unterrichte an Schulen, und manche der jungen Leute dort haben eine seltsame Art von Selbstgenügsamkeit. Dabei wissen sie gar nicht, was sie alles nicht wissen. Sie nehmen nur den Teil der Welt wahr, der ihnen gefällt. Es gibt eine recht aktuelle US-Studie, die zu ganz anderen Ergebnissen kommt. Demnach nutzen gerade die jungen Leute Facebook, um mit Freunden in Kontakt zu bleiben, die sie schon kennen. Es sind eher die Erwachsenen, die über das Portal neue Bekanntschaften suchen. Die Studie habe ich auch gelesen. Ich kann dazu nur sagen: Wenn ich heute an Universitäten lehre, erleben ich das genaue Gegenteil. Gerade junge Akademiker glauben so sehr an Facebook, dass sie mir mit ihrer Rhetorik fast wie Marxisten aus den 60ern vorkommen, die so sehr an bestimmte Ideen glauben, dass es fast religiöse Züge annahm. Mehr noch: Die Site hat eine universelle Bedeutung erreicht, die es schwer macht, sie überhaupt noch zu kritisieren. Facebook ist heute wie eine Doktrin. So funktionieren einige dieser Entwicklungen: Sie grenzen Kritik aus und blockieren andere Ideen. Wer profitiert aus Ihrer Sicht von diesem System? Es haben nur wenige etwas davon, wenn man Computer vor allem dafür verwendet, Daten zu sammeln, um daraus Geld und Macht zu ziehen. Die Mehrheit der Nutzer hat nichts davon. Facebook ist ein Beispiel dafür, Google ein anderes. . . .
    Was ist denn falsch daran, das bisherige Wissen der Welt für jeden zugänglich zu machen? Es ärgert mich, weil ich immer wollte, dass das Internet gut darin wird, Dinge auf neue Art auszudrücken. Nicht nur darin, Altes zu kopieren. Ich bin zum Beispiel begeistert von der Idee, Mathematik in dynamischen Videospielen zu erklären, um den Menschen wirklich neue Horizonte zu eröffnen. Und Wikipedia wird derart stark von Suchmaschinen bevorzugt, dass die experimentierfreudigen Seiten im Internet kaum noch Feedback bekommen. Diese ganze Welt der experimentellen Kommunikation ist irgendwie verschwunden. Ein bisschen kommt sie zurück, mit dem App-Modell von Apple. Die Leute, die Applikationen programmieren, probieren wieder mehr neue Möglichkeiten aus."
  6. Die Deutsche Bibliothek: Volltextindexierung von Online-Dissertationen (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 5567) [ClassicSimilarity], result of:
          0.028814849 = score(doc=5567,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 5567, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5567)
      0.25 = coord(1/4)
    
    Content
    "Die Deutsche Bibliothek hat die bei ihr gespeicherten Online-Dissertationen für die Indexierung durch Suchmaschinen freigegeben. Anbieter entsprechender Suchdienste haben damit die Möglichkeit, den gesamten Inhalt frei zugänglicher Online-Dissertationen automatisch zu erschließen und über Suchmaschinen zugänglich zu machen. Die Digitalisierung von Büchern wird derzeit international diskutiert. Mit dem Angebot der Volltextindexierung im Bereich Online-Dissertationen nutzt Die Deutsche Bibliothek die Möglichkeiten eines Segments ihrer Sammlung, das bereits in elektronischer Form vorliegt. Dabei wird sie die Volltextindexierung zunächst nicht selbst vornehmen, sondern bietet den Betreibern von Suchmaschinen die Möglichkeit dies zu tun. Speicherort der Online-Publikationen bleibt in jedem Fall der Archivserver Der Deutschen Bibliothek. Im Bereich der Suchmaschinenbetreiber werden die aus der Indexierung gewonnenen Suchbegriffe mit einem Link auf den Volltext bei Der Deutschen Bibliothek gespeichert. Zu den ersten Systemen, die das neue Angebot nutzen werden, gehören das Forschungsportal als Projekt des Bundesministeriums für Bildung und Forschung und der Internetsuchdienst Google. Weitere Anfragen liegen der Bibliothek vor. Forschende werden in Zukunft die Volltextindexierung der OnlineDissertationen mit unterschiedlichen Zugangswegen nutzen können."
  7. Pany, T.: Google-Grenzerfahrung (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
          0.028814849 = score(doc=5699,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 5699, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5699)
      0.25 = coord(1/4)
    
    Content
    "Hossein Derakhshan ("Hoder") ist eine Internet-Berühmtheit, ein www-VIP. Von ihm gingen entscheidende Impulse aus, die zur Gründung der famosen iranischen Blogosphäre (vgl. "Ich möchte kotzen, zerspringen, explodieren" (1)) geführt haben. Der gebürtige Iraner Derakhshan betreibt seinen Blog - Editor:myself (2) (englisch, persisch hier (3) - von Toronto/Kanada aus, wohin er vor einigen Jahren ausgewandert ist, da ihm seine Arbeit als Journalist, der sich offen für die Reformbewegung in Iran aussprach, dort zu riskant wurde. Seine Blog-Einträge werfen sporadische, kurze und erhellende Schlaglichter auf bemerkenswerte Entwicklungen in der iranischen Politik; besonders aufmerksam ist Hoder natürlich für Tendenzen, die sich im Umgang mit den publizistischen Möglichkeiten des Internet zeigen. Sein "Fachgebiet" sind die Blogs: für ihn wichtige "Fenster" und "Brücken" zwischen den verschiedenen Welten. Es gibt wohl kaum eine wichtige Veranstaltung, die sich mit Blogs beschäftigt, zu der Hossein Derakshan nicht eingeladen ist (vgl. Bestes Blog der Welt (4)).
    A sad but real story Entsprechend viel ist Hoder unterwegs. Im November war er in Paris, Barcelona, Tunis mit einem Zwischenaufenthalt in Deutschland. Nachzulesen sind diese Stationen in seinem Blog, eigentlich keine bemerkenswerte Info, ebenso wenig wie die Mitteilung, dass er sich für eine Weile in New York aufhalte. Über so etwas gibt man halt seinen treuen Lesern Bescheid. Jetzt gewann Hoder zwei neue Leser hinzu, die alles, was er in den letzten Monaten zu berichten hatte, mit großer Neugier, stundenlang intensiv verfolgten und er ist alles andere als glücklich darüber: "a sad but real story". Hoder war im Bus von Toronto nach New York City unterwegs, der Bus wurde an der Grenze zwischen Kanada und den USA aufgehalten. Als zwei Beamte der US Customs and Border Security von Hoder erfuhren, dass er zu einer Blogger-Konferenz (ConvergeSouth) in den Staaten unterwegs sei, wurden sie neugierig. Vor seinen Augen googelten sie seinen Namen und fanden seinen Blog. Einer der beiden, so Hoder, las jeden seiner Einträge sorgfältig, es dauert nicht lange, bis er etwas fand, dass ihn mehr als alles andere interessierte: --You live in New York, right? That's what you've written in your on blog.--
    Überrascht, dass sich jetzt auch Grenzbeamten die Informationen über Besucher von Google holten, und etwas verwirrt darüber, mit welcher ernsthafter Gewichtung seine Blogeinträge jetzt auf ihn zurückkamen, gab Hoder zu, dass er sich einige Zeit in New York aufgehalten habe, weil dort Konferenzen stattfanden, und dies in seinem Blog schrieb, nicht zuletzt deswegen, weil es Spaß machte, so etwas hinzuschreiben: In New York zu leben sei doch sexier als in Toronto, don't you think? Der Grenzbeamte wurde "ekstatisch", suchte weiter und fand im Archiv des Blogs eine Stelle, wo sich Hoder über die Gefahren lustig machte, die ihm bei seinem diesjährigen Besuch in Iran tatsächlich bevorstanden (vgl. Zweierlei Iran (5)). In dem Posting hatte er seine Leser (scherzhaft) davor gewarnt, dass die iranischen Grenzer bei Verhören herausfinden könnten, dass er mit Drogen handle und Geld von der CIA bekäme. Für den amerikanischen Grenzbeamten war dies - "So you are getting money from the Bush administration" - das Stichwort, um, berauscht von dieser Fahndungsquelle, online nach weiteren Spuren zu suchen, die bestätigten, dass Derakhshan illegal Geld in den USA verdienen würde und dass er sich dort einen unerlaubten ständigen Wohnsitz halte. Zwar gelang es dem Exil-Iraner den Grenzpolizisten davon zu überzeugen, dass der CIA-Eintrag witzig gemeint war, doch der nahm aber andere Einträge, wie eben die über Konferenzen in den USA, bei denen man doch Geld verdiene, ernst und schließlich gab eine Newsweek-Ausgabe, die sich in Hoders Gepäck befand und eine New Yorker Adresse für Hossein Derakhshan hatte ("Ich wollte keine Nummer versäumen") den Ausschlag. In den nächsten sechs Monaten darf Hoder nicht mehr in die USA einreisen. So kam die Pein am Ende von der Seite, von welcher er es am wenigsten befürchtet hatte. Sein Besuch in Iran nämlich hatte keine unangenehmen Konsequenzen gehabt."
  8. Günzel, C.: Wir sind die Guten! : Das Google-Monopol? (2006) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 5732) [ClassicSimilarity], result of:
          0.028814849 = score(doc=5732,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 5732, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5732)
      0.25 = coord(1/4)
    
    Content
    "Mit 30 Milliarden Seiten im Index sortiert Google inzwischen das, was die Welt wissen will. Die Firma will drahtlose InternetZugänge gratis anbieten, treibt die Entwicklung der kostenfreien Bürosoftware Open Office voran und speichert in Zukunft vielleicht Texte und Dokumente im Internet. Die Kalifornier kauften sich in den letzten Jahren mehr als ein Dutzend Technologiefirmen zusammen. Das Usenet-Archiv Dejanews verleibte sich das Unternehmen ebenso ein wie WeblogAnbieter Pyra Labs (Blogger.com), den Bilderdienst Picasa, Satellitenfoto-Anbieter Keyhole oder Dodgeball, eine Social Software für Handys, mit der einsame Mobiltelefonierer Freunde finden (www.internetmarketing-news.de/2005/11/06/die-uebernahmen-von-google). Viele Beobachter des Suchmarktes sehen mit Sorge auf diese um sich greifende Marktmacht, während Google zunehmend Probleme mit dem Image bekommt. Von schmutzigen Dingen ist die Rede: Google soll Kunden ausspionieren, private Daten horten, ein gefährliches Monopol errichten - einzig mit dem Ziel, auf jede Lebenslage perfekt zugeschnittene Werbung zu verkaufen. Sogar Microsoft, der Software-Gigant und Herrscher über die Betriebssysteme von Milliarden Computern, erscheint manchem plötzlich in milderem Licht. Und selbst das hehre Ziel, 15 Millionen Bücher online zugänglich zu machen, fliegt Google um die Ohren: Nicht um das Aufpolieren verstaubten Wissens aus fünf Bibliotheken ginge es, schimpfen die Kritiker. Nein, Google wolle Kontrolle über geistiges Eigentum gewinnen (print.google.de). "Suchmaschinen sind Knotenpunkte der Meinungsbildung, keine neutralen Dienstleister", mahnt Wolfgang Schulz, Direktordes Hamburger Hans-Bredow-Instituts für Medienforschung (siehe Interview). Googles Algorithmus, sein Suchverfahren, ist eine Interpretation von Netzrealität und beeinflusst die öffentliche Kommunikation, glaubt der Jurist: "Was auf den Google-Ergebnislisten auftaucht oder nicht, hat Bedeutung. Nur, wer es auf die ersten zehn Listenplätze von Google schafft, existiert." Nur reichlich neun Prozent der Internet-Nutzer klicken sich weiter auf Seite 2 der Trefferlisten, weitere knapp sechs Prozent schaffen es bis zur dritten Seite.
    Google als Instanz des Massengeschmacks. Millionen Menschen huldigen der Maschine allein in Deutschland und wählten sie mit einem Marktanteil von über 80 Prozent zur Herrscherin im Reich der Suchhilfen. "Es ist ein hartnäckiges Gerücht, dass Suchmaschinen neutral sind. Schließlich haben Menschen die Regeln erdacht, nach denen die Maschinen suchen und gewichten", sagt Stefan Karzauninkat, Manager bei der Suchmaschine Seekport und Autor der Suchfibel (www.suchfibel.de). Seit Google ein Milliarden-Unternehmen ist, steht jeder seiner Schritte unter Beobachtung (Google Watch Blog: www.jmboard.com/gw). Durch Weblogs wabern Gerüchte überein Betriebssystem, an dem im Googleplex angeblich gebastelt wird, oder über eine neue Kleinanzeigendatenbank, mit der Google angeblich eBay vernichtet. Krude Verschwörungstheorien von Weltherrschaft und Künstlicher Intelligenz versetzen inzwischen sogar Wal Mart in Angst. Der Handelsriese fürchtet, ein allgegenwärtiges Google könne Kunden helfen, Produkte anderswo billiger zu bekommen - meldet zumindest die New York Times. In der Google-Zentrale in Mountain View hält man sich bedeckt- oder heizt mit nebulösen Bemerkungen die Diskussion an (google blog.blogspot.com). Über die Geheimniskrämerei im Silicon Valley beschwert sich der deutsche Suchmaschinenpapst Wolfgang Sander-Beuermann. "Es ist fast unmöglich, bei Google hineinzuschauen. Selbst der Parkplatz vor der Firma ist tabu. Im letzten Jahrverwehrte mir die Security sogar den Zutritt. Vor vier Jahren durften Besucher zumindest noch in die Empfangshalle", berichtet der Leiter des Suchmaschinenlabors der Universität Hannover. Weil Sander-Beuermann den Zugang zum Weltwissen durch Suchmaschinenmonopole gefährdet sieht, gründete er im letzten Jahr einen Verein zur Förderung des freien Wissenszugangs (su ma-ev.de). "Das Problem bei Monopolen ist, dass sie nicht kontrollierbar sind"' meint der Suchmaschinen-Spezialist. "Keiner weiß, ob sie Suchergebnisse manipulieren oder wie sie die gesammelten Daten nutzen." Nur eines sei klar: Googles E-Mail-Dienst GMail klebe ein Cookie auf die Festplatte, das bis zum Jahr 2038 gilt. "Auch bei der Suche werden Cookies gesetzt. Die gewonnenen Daten könnte Google verbinden und jede persönliche Suche mitlesen."
    "Wir verkaufen keine Daten, erstellen keine Profile"' hält Google-Sprecher Stefan Keuchel dagegen. Google sei auch keine Internet-Polizei . "Google-Bashing ist gerade aktuell. Wir werden in einen Topf geworfen mit Microsoft", klagt der deutsche Googler. "Aber an unserer Philosophie 'Tu nichts Böses' lassen wir uns messen. Wir sind die Guten!" Doch andere wollen die Besseren werden. Googles Vorsprung schmilzt, meint Stefan Karzauninkat, weil sein Wertungssystem zunehmend ausgehebelt wird: Dritte verdienen am Verkauf von Links und dem Frisieren der Ergebnislisten Geld: "Das kostet zwischen 10 und tausenden Euro im Monat, je nach Position." Google-Konkurrentenarbeiten an neuen Ideen, genauso wie Suchmaschinenpapst Sander-Beuermann. Der träumt zum Beispiel vom Durchbruch der Peer-to-PeerSuchmaschine YaCy (www.suma-lab.de/ ya cy): "Wenn es genügend Leuten beim Gedanken an eine Suchmaschinen-Supermacht ungemütlich wird, erreicht ein solches Open-Source-Modell die kritische Masse." Mal schauen."
  9. Passath, C.: Information-Panels : Die Informationsvermittler der Zukunft (2005) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 5991) [ClassicSimilarity], result of:
          0.028814849 = score(doc=5991,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 5991, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5991)
      0.25 = coord(1/4)
    
    Abstract
    Je mehr Informationen gleichzeitig, übersichtlich dargestellt und überwacht werden können, desto höher wird der Informations-Nutzen für einen Besucher oder potentiellen Kunden von ihnen sein. Da wir in einer Zeit der Informationsüberflutung leben, hilft uns das Information-Panel in Zukunft als multimediales Informationssystem. Ein Interface ist in unserem heutigen multimedialen Umfeld ein Bestandteil eines Systems, das dem Austausch von Informationen dient. Durch Information-Panels (sog. I-Panels) kann der Mensch mit Geräten interagieren, indem er sich wahlweise die für ihn masßgeschneiderten Informationen darstellen lässt. Für den Interface-Theoretiker Artur P. Schmidt können Information-Panels heute als eine Art Enzyklopädie für Informationen und Nachrichten aller Art dienen, wie sein Internet-Projekt "Der Wissensnavigator" belegt. Das Vorbild für multimediale Panels ist die geordnete Verbindung von Inhalten. Das Information-Panel als MenschMaschine-Interface kann zum "Punkt der Begegnung" oder "Kopplung zwischen zwei oder mehr Systemen" werden. Es übernimmt eine Übersetzung- und Vermittlungsfunktion.
  10. Gorraiz, J.: "Web of Science" versus "Scopus" oder das aktuelle Dilemma der Bibliotheken (2006) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 21) [ClassicSimilarity], result of:
          0.028814849 = score(doc=21,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 21, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=21)
      0.25 = coord(1/4)
    
    Abstract
    Bei den nachfolgenden Ausführungen handelt es sich um eine Zusammenstellung von Kommentaren, Vorträgen und Rückmeldungen von Kollegen bzw. Benutzern der Bibliothek sowie meine eigenen Erfahrungen als Vortragender im Universitätslehrgang "Master of Science", in dessen Rahmen ich das Fach "Bibliometrie" unterrichte. Schwerpunkt dieses Beitrages ist eine Zusammenfassung der Diskussion "Web of Science versus Scopus", die den aktuellen Stand der Kontroverse (vor allem an der Universität Wien im naturwissenschaftlichen Sektor) widerspiegelt. Hier ist zu bemerken, dass diese Problematik auch fachspezifisch ist und deswegen an jeder Universität bzw. in jedem Fachgebiet anders zu betrachten ist. Startpunkt meiner Betrachtung ist die allgemein akzeptierte Notwendigkeit des "Journal of Citation Reports (JCR)". Nur in diesem bibliometrischen Verzeichnis sind derzeit die "Impact Factors" zu finden, die als Grundlage jeder akademischen Evaluation dienen. Deswegen ist JCR heutzutage an jeder Universität mit naturwissenschaftlichen Fächern unentbehrlich und das aktuelle Dilemma der Bibliothekare lautet nicht wirklich "Web of Science versus Scopus", sondern genaugesagt "Fallbeispiel A: Web of Science &JCR" oder "Fallbeispiel B: Scopus &JCR".
  11. Peer, M.: Ausradierte Erinnerungen : Informationen, die für Abgeordnete peinlich sind, werden in Wikipedia gelöscht - an Computern des Bundestages (2006) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 103) [ClassicSimilarity], result of:
          0.028814849 = score(doc=103,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 103, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=103)
      0.25 = coord(1/4)
    
    Content
    "Bundestagsabgeordnete und ihre Mitarbeiter scheinen eifrige Leser der Internet-Enzyklopädie Wikipedia zu sein. Und nicht nur das: Man könnte meinen, sie bearbeiten auch gerne Beiträge. Nach Recherchen der Frankfurter Rundschau wurden mit Computern des Bundestags 117 Wikipedia-Texte umgeschrieben - solche, in denen es um Abgeordnete geht. Viele Änderungen sind konstruktiv und verbesserten die Beiträge. Etliche andere Überarbeitungen aber dienten dem Ziel, die Volksvertreter in einem günstigen Licht erscheinen zu lassen: Negative Sachverhalte wurden einfach gelöscht. Beispiel Johannes Kahrs: Als Juso-Kreisvorsitzender hatte Kahrs 1992 eine innerparteiliche Konkurrentin mit anonymen nächtlichen Anrufen belästigt. Das Strafverfahren gegen ihn wurde nach einer BußgeldZahlung von 800 Mark eingestellt. Fakten, die auch im Wikipedia-Artikel über Johannes Kahrs auftauchten. Daraufhin gab es seit November 2005 drei Versuche, die unfeinen Anrufe des Abgeordneten aus seinem Lebenslauf verschwinden zu lassen. Wer der wohlmeinende Korrektor war? Johannes Kahrs jedenfalls versichert, weder er persönlich, noch einer seiner Mitarbeiter seien für die Löschung verantwortlich. Die Enzyklopädie dokumentiert jede Änderung-und woher sie kommt Nachweisen lässt sich die Autorenschaft nur bedingt. Denn zum Prinzip Wikipedia gehört es, dass alle Nutzer Texte verfassen oder umschreiben können - auch ohne Namensnennung. Allerdings wird jede Änderung gespeichert und veröffentlicht - samt der numerischen Internet-Adresse des Rechners, an dem umgeschrieben wurde. Für viele Unternehmen, Behörden oder Hochschulen ist diese Adresse immer gleich - auch für den Bundestag. Daher kann man eindeutig feststellen, dass ein bestimmter Wikipedia-Eintrag von einem Computer verändert wurde, der an das Rechnernetz des Bundestags angeschlossen ist. Allerdings lässt sich nicht ohne Weiteres sagen, wer genau in den Text eingegriffen hat. So auch im Fall der CDU-Abgeordneten Hildegard Müller, heute Staatsministerin im Bundeskanzleramt. Sie war im Januar 2005 wegen Zahlungen der Dresdner Bank ins Gerede gekommen. Ein entsprechender Hinweis im Wikipedia-Artikel über Müller wurde im Mai 2005 gelöscht - von einem Bundestagscomputer aus. Heiko Rottmann, der persönliche Referent Müllers, versichert, dass weder sie noch einer ihrer Mitarbeiter Hand an den Text gelegt hätten. Er vermutet, jemand im Bundestag wollte der Abgeordneten "einfach etwas Gutes tun".
    Solche wohlmeinenden Korrektoren sind allem Anschein nach fraktionsübergreifend tätig: Aus dem Artikel über den Parlamentarischen Geschäftsführer der Grünen, Volker Beck, wurden kritische Zitate aus der Presse gelöscht. Bei seiner Grünen-Kollegin Anja Hajduk fehlt seit der Überarbeitung des Textes der Hinweis auf eine erfolglose Kandidatur zum Bundesvorstand. Auch bei der CDU-Abgeordneten Michaela Noll kam der Rotstift zum Einsatz: Dort löschte jemand einen Satz, der innerparteiliche Kritik an der Parlamentarierin während des Visa-Untersuchungsausschusses erwähnte. Verantwortlich für Änderungen auch in diesen drei Fällen: ein Computer mit der InternetAdresse des Bundestags. Für viel Wirbel hatten Anfang des Jahres ähnliche Vorkommnisse in den USA gesorgt. Im Januar berichtete die Lokalzeitung Lowell Sun aus Massachusetts, dass Mitarbeiter des Abgeordneten Marty Meehan dessen Wikipedia-Biographie manipuliert hatten. Darauf deckte die Wikipedia-Community mehr als tausend Veränderungen auf, die an Abgeordneten-Biographien vorgenommen worden waren - und zwar von Computern aus, die im US-Parlament stehen. Beliebteste Korrekturart: alles rausstreichen, was für den Abgeordneten unangenehm sein könnte. Die deutschen Wikipedia-Betreiber sind jetzt genauso wenig begeistert wie damals ihre US-Kollegen: "Einen Artikel zu verändern, um einen Politiker besser dastehen zu lassen, widerspricht ganz klar dem Gedanken von Wikipedia", sagt Arne Klempert. Er wird im Oktober die Geschäftsführung von Wikimedia Deutschland übernehmen. Politische Institutionen wie den Bundestag komplett von der Mitarbeit an Wikipedia auszuschließen, lehnt Klempert jedoch ab. Grundsätzlich sei nichts dagegen einzuwenden, dass Politiker etwa Faktenfehler in ihren Biographien korrigieren. Manipulative Eingriffe, sagt Klempert, würden schnell von anderen Wikipedia-Nutzern aufgedeckt und rückgängig gemacht. Tatsächlich hat der Kontrollmechanismus auch bei den jüngsten Korrekturen von Mitarbeitern oder auch Mitgliedern des Bundestags funktioniert. In den meisten Fällen haben aufmerksame User gelöschte Textabschnitte innerhalb kurzer Zeit wieder in die Artikel eingefügt. Klempert rät Politikern und ihren allzu wohlmeinenden Mitarbeitern nachdrücklich davon ab, Wikipedia als PR-Instrument zu nutzen: "Wer seine eigene Biographie schönen lässt, tut sich damit keinen Gefallen." Statt das Image zu verbessern, stehe man durch solche Aktionen hinterher oft schlechter da. "Denn früher oder später deckt die Community fast alles auf.""
    Footnote
    SCHUTZ VOR FEHLERN Die Internet-Enzyklopädie wird von ihren Lesern geschrieben; alle können Artikel anlegen oder ändern. Gegen Manipulationen schützen freiwillige Helfer - und eine kritische Lektüre. - Kontrollen: Wikipedia hat keinen Chefredakteur, aber viele Autoren. Und dazwischen Prüfinstanzen: Administratoren, Entwickler und Stewards- Freiwillige, die sanft kontrollieren. - Richtig lesen: Wer Zweifel an der Richtigkeit hat, sollte die DiskussionsSeite eines Artikels aufrufen. Dort finden sich oft Hinweise auf Streitpunkte und weiterführende Quellen. Auskunft bietet auch die Versionen-Historie: Wurde ein Artikel lange Zeit von verschiedenen Autoren weiterentwickelt, finden sich vermutlich weniger Fehler, als wenn der Artikel nur von einem Autor auf die Schnelle eingestellt wurde.
  12. Singer, W.: Neurobiologische Anmerkungen zum Konstruktivismus-Diskurs (2002) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 129) [ClassicSimilarity], result of:
          0.028814849 = score(doc=129,freq=24.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 129, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=129)
      0.25 = coord(1/4)
    
    Abstract
    Es soll der Frage nachgegangen werden, wie Wissen über die Welt in das Gehirn gelangt, wie es dort verankert wird und wie es bei der Wahrnehmung der Welt genutzt wird, um diese zu ordnen. Behandelt werden müssen dabei kognitive Aspekte der Evolution und der Individualentwicklung. Vor allem aber bedarf es dabei der Auseinandersetzung mit den neurobiologischen Grundlagen der Wahrnehmung, mit der Frage nach der Repräsentation von Wahrnehmungsobjekten im Gehirn. Vorab soll an einem alltäglichen Wahrnehmungsprozess verdeutlicht werden, welche Leistungen unsere kognitiven Systeme erbringen müssen, wenn sie versuchen, Ordnung in die Welt zu bringen. Die erste Abbildung zeigt eine komplexe Szene, in der Figuren zu erkennen sind. Es dauert gemeinhin eine Weile, bis diese als Pferde identifiziert werden können, und je länger die Suche währt, um so mehr Pferde werden sichtbar. Um diese Figuren erkennen zu können, muss das visuelle System zunächst eine Segmentierungsleistung erbringen. Es muss die Figuren vom Grund trennen; die Mustermerkmale, die konstitutiv für individuelle Figuren sind, müssen als zusammengehörig erkannt werden. Ferner müssen die verschiedenen Figuren voneinander getrennt werden, um identifizierbar zu sein. Vermengung von Konturen der Pferde mit Konturen des Hintergrundes oder von Konturen unterschiedlicher Pferde würde das Erkennen individueller Gestalten unmöglich machen, Dieser Segmentierungsprozess läuft meist automatisch ab, bleibt unbewusst und erfordert keine besondere Aufmerksamkeit. Da er der Objektidentifikation vorausgeht, muss er auf einer relativ niedrigen Ebene der visuellen Verarbeitungshierarchie erfolgen. Aus dem gleichen Grund muss er sich an Gruppierungsregeln orientieren, die für alle visuellen Objekte gleichermaßen gelten. Gruppierung muss möglich sein, bevor man weiß, welche Figuren eine Szene enthält. Ohne Vorwissen darüber, wie die Welt strukturiert ist, nach welchen Kriterien Szenen zweckmäßigerweise zu segmentieren sind, wäre es unmöglich, aus den zweidimensionalen Helligkeitsverteilungen, auf welche die Sehwelt in unseren Augen reduziert wird, irgendwelche Figuren zu extrahieren. Natürlich hilft es zu wissen, dass in dieser Szene Pferde grasen, aber dies weist nur zusätzlich darauf hin, dass sprachlich vermittelbares Wissen von den entsprechenden auditorischen Zentren im Gehirn auf periphere Ebenen des visuellen Systems zurückprojiziert werden kann, um dort Segmentierungsprozesse zu unterstützen. In diesem Fall erfolgt die Segmentierung dann aber unter der Kontrolle von Aufmerksamkeit und wird zur bewussten Suche.
    Da Segmentierung aber möglich sein muss, ohne dass vorher gewusst wird, was zu sehen ist, muss sie allgemeinen, Im System fest verankerten Gesetzen gehorchen. Es muss angeborenes oder erworbenes Wissen darüber gespeichert sein, mit welcher Wahrscheinlichkeit bestimmte Konstellationen von Mustermerkmalen für visuelle Objekte kennzeichnend sind. Dieses Regelwissen ist in den dreißiger Jahren von den Gestaltpsychologen um Max Wertheimer gründlich erforscht worden. Als starkes Gruppierungskriterium gilt zum Beispiel die Kontinuität bzw. räumliche Kontiguität von Konturen. Das Sehsystem hat die Tendenz, Konturen, die zusammenhängen, als zu einer Figur gehörig zu gruppieren. Das Gleiche gilt für Bildelemente, die nahe benachbart sind (Kriterium der Nähe) oder für Elemente, die in irgendeinem Merkmalsraum Ähnlichkeiten aufweisen, etwa die gleiche Farbe oder die gleiche Textur haben (Kriterium der Ähnlichkeit). Ein ganz besonders effizientes Gruppierungskriterium, das vermutlich angeboren ist und den meisten Spezies gemeinsam ist, wird als Kriterium des gemeinsamen Schicksals angesprochen, Wenn ein gut getarnter Käfer reglos im Laub sitzt, ist er in der Regel nicht segmentierbar und damit auch nicht erkennbar. Bewegt er sich aber, was zur Folge hat, dass sich die Konturen seines Tarnmusters alle mit der gleichen Geschwindigkeit in die gleiche Richtung bewegen, wird er sofort vom Hintergrund abgrenzbar, als Käfer identifizierbar und, wenn er Pech hat, gefressen. Kognitive Systeme wenden also zunächst relativ elementare Kohärenzkriterien an, um Bildelemente zusammenzufassen, die mit einer gewissen Wahrscheinlichkeit konstitutiv für Wahrnehmungsobjekte sind. Hinzu treten eine Reihe komplexerer Kriterien wie die Geschlossenheit oder die gute Fortsetzung sich überschneidender Konturgrenzen. Wir gehen davon aus, dass sich Konturen harmonisch und kontinuierlich fortsetzen, auch wenn sie partiell verdeckt sind. Und schließlich bewerten wir sogar symmetrische Bezüge von Musterelementen als konstitutiv für Objekte. Es werden solche Konturgrenzen gruppiert, die, wenn zusammengefasst, symmetrische Figuren ergeben. Es entspricht dies dem Faktum, dass die meisten Organismen entweder radial- oder axialsymmetrisch sind.
    Footnote
    Der vorliegende Beitrag, der hier mit freundlicher Genehmigung des Verlages wiedergegeben wird und in großen Teilen inhaltlich dem an der Universität Kaiserslautern gehaltenen Vortrag entspricht, erschien in dem von H.R. Fischer u. S.J. Schmidt herausgegeben Aufsatzband; "Wirklichkeit und Welterzeugung. In memoriam Nelson Goodman", Heidelberg 2000: Carl-Auer-Systeme Verlag, S. 174-199.
  13. Heinz, M.: Bemerkungen zur Entwicklung der Internationalität der Forschung : Bibliometrische Untersuchungen am SCI (2006) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 110) [ClassicSimilarity], result of:
          0.028814849 = score(doc=110,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 110, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=110)
      0.25 = coord(1/4)
    
    Abstract
    In der Arbeit werden verschiedene Kennziffern zur Messung der Internationalität der Forschung untersucht. Die Grundlage bilden die Daten des Science Citation Index (SCI) von 1980 bis 2002 in der CD-ROM Version. Alle betrachteten Kennziffern weisen einen einheitlichen Gesamttrend in diesem Zeitraum auf der die Hypothese der Zunahme der Internationalität in der Forschung bestätigt. Zwei Kennziffern, der mittlere Anteil eines Landes an einem Artikel und die Diversität, gemessen durch die Shannonsche Entropie des Vektors der Anteile der Länder am SCI, zeigen eine charakteristische Verstärkung der Trends ab 1987, was für eine erhöhte Zunahme des Internationalisierungsprozesses der Forschung ab Mitte der 80er Jahre des vergangenen Jahrhunderts spricht. Darüber hinaus werden Zusammenhänge zwischen der ökonomischen Leistung eines Landes, seinem Anteil am SCI und seiner internationalen Forschungskooperation aufgezeigt.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
  14. Naumann, U.: Irrläufer einer missverstandenen Szientometrie (2006) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 148) [ClassicSimilarity], result of:
          0.028814849 = score(doc=148,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 148, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=148)
      0.25 = coord(1/4)
    
    Abstract
    Die Szientometrie untersucht quantitative Dimensionen der wissenschaftlichen Entwicklung. Ihre Methoden und Ergebnisse werden auch zur Evaluation des wissenschaftlichen Outputs herangezogen. Ohne ein grundsätzliches Verständnis über die begrenzte Aussagefähigkeit massenstatistischer Datenerhebungen besteht die Gefahr der Fehlinterpretation, da sich , Wissenschaftlichkeit' nicht allein mit diesem Instrumentarium messen lässt. Im vorliegenden Beitrag wird darauf Bezug genommen, indem die Versuche geschildert werden, anhand der Publikationsziffern zwischen Universitäten und innerhalb von Universitäten Rangfolgen mit finanziellen Auswirkungen zu bilden. Ein zweites Thema ist die Kritik an der vermuteten Qualität von peer reviewed-Zeitschriften, die bei der quantitativen Messung eine Vorzugsstellung genießen. Ein drittes Thema ist die kritische Betrachtung des für Zeitschriften ermittelten impact factor als untaugliches Instrument der qualitativen Positionierung von Forschungsleistungen.
    Series
    Beiträge zur Bibliotheks- und Informationswissenschaft; 1
  15. ap: Konkurrenz für Google : Neue Suchmaschine "Teoma" gestartet (2002) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1187) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1187,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1187, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1187)
      0.25 = coord(1/4)
    
    Content
    "Die Suchmaschine Google gilt oft als der beste Weg, um schnell etwas im Internet zu finden. Das war einmal, behauptet Apostolos Gerasoulis, jetzt gebe es www.teoma. com. "Wir sind die nächste Generation der Suchmaschinen", verspricht der Mathematikprofessor. Die Web-Sites von Google und Teoma sind ähnlich aufgemacht. Beide bieten eine weitgehend weiße Startseite mit wenigen, klaren Farben. Beide Suchmaschinen benutzen bei ihrer Arbeit zur Analyse der Anfragen einen komplizierten Algorithmus. Teoma hält den eigenen Ansatz aber für besser, weil dabei das Internet in Gruppen von Online-Gemeinschaften unterteilt wird. Dies liefere bessere Ergebnisse und erlaube eine nützlichere Auswahl. Zu einem Suchbegriff erscheinen bei Teoma zuerst links oben die bezahlten Verweise, darunter dann' alle anderen gefundenen Web-Seiten. Rechts erscheinen Vorschläge zur Verfeinerung der Suchanfrage, darunter manchmal Links von "Experten und Enthusiasten". Diese qualifizierten Antworten sind eine der Stärken, mit denen Teoma wuchern möchte. Sie sind besonders für Anfänger nützlich, die nach allgemeinen Themen wie Afrika" oder "Fußball" suchen. Allerdings könnte dieser Ergebnisdienst Nutzer auch überfordern, gerade wenn sie an das einfache Google gewöhnt seien, kritsiert Rob Lancaster von der Yankee Group."
  16. Veltman, K.H.: Von der aufgezeichneten Welt zur Aufzeichnung der Welten (2007) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1200) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1200,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1200, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1200)
      0.25 = coord(1/4)
    
    Content
    "Auf der Tagung "Herausforderung: Digitale Langzeitarchivierung - Strategien und Praxis europäischer Kooperation" welche vom 20. bis 21. April 2007 in der Deutschen Nationalbibliothek (Frankfurt am Main) stattfand, befassten sich die einzelnen Referentinnen nicht nur mit der Bewahrung des Kulturgutes, sondern u.a. auch mit der "Aufzeichnung der Welten". Wie man diese "Weltaufzeichnung" in Anbetracht der Fülle und stetigen Zunahme an Informationen zukünftig (noch) besser bewältigen kann, thematisierte Kim H. Veltman in seinem Vortrag. Er präsentierte dazu vier äußerst denkwürdige Ansätze: - Schaffung einer zentralen europäischen Instanz, welche die Gedächtnisinstitutionen über die neusten technologischen Entwicklungen informiert - Errichtung eines digitalen Referenzraums und einer virtuellen Agora innerhalb der Europäischen Digitalen Bibliothek - Gründung eines Instituts zur Wissensorganisation - Erforschen der Anforderungen für eine "Universal Digital Library"."
  17. Wyss, V.; Keel, G.: Google als Trojanisches Pferd? : Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität (2007) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1385) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1385,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1385, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1385)
      0.25 = coord(1/4)
    
    Abstract
    Ohne Suchmaschinen bliebe das Internet ein ungeordneter Datenfriedhof mit all den bekannten Mängeln zufällig aufgehäufter Informationshalden, insbesondere ohne Relevanzstruktur. Auch für Journalisten wird das Internet erst durch Suchmaschinen zum brauchbaren Netz. Suchmaschinen haben eine wesentliche Bedeutung für die Recherchepraktiken und sie haben das Potenzial, die soziale Struktur des Journalismus wesentlich mitzuprägen oder gar zu verändern. Offensichtlich wird nämlich, dass der Suchmaschine nicht nur eine suchende, sondern auch eine ordnende Funktion zukommt - sie ist eben Selektionsmaschine. Die Selektionsleistung der technischen Gatekeeper löst aber nicht nur Probleme, weil beispielsweise das gezielte Suchen von Informationen rasch und kostengünstig erfolgen kann; Suchmaschinen schaffen auch neue Probleme, mit denen der Journalismus konfrontiert ist. Das vorliegende Kapitel diskutiert die Frage, inwiefern sich die Internetrecherche von Journalisten auf die journalistische Qualität auswirkt. Im Zentrum des vorliegenden Kapitels steht die theoretische Sichtweise auf den möglichen Einfluss der Anwendung von Suchmaschinen auf die soziale Praxis bzw. auf die Struktur des Journalismus, und damit auch auf die Produktion der journalistischen Qualität.
  18. Bischopinck, Y. von; Ceyp, M.: Suchmaschinen-Marketing : Konzepte, Umsetzung und Controlling (2007) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1482,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1482)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet hat in den letzten zehn Jahren das Dialogmarketing ganz wesentlich bereichert. Allerdings fehlen vielfach systematische Abhandlungen über den konkreten Einsatz ausgewählter Online-Marketing-Instrumente. Das vom Autorenteam Bischopinck/Ceyp vorgelegte Kompendium zum Suchmaschinenmarketing (SEO - Search Engine Optimization und SEM - Search Engine Marketing) schließt eine zentrale Lücke. Alle Parameter des Suchmaschinenmarketings werden systematisch erläutert und anwendungsorientiert erklärt. Konkrete Beispiele verdeutlichen die paxisgerechte Umsetzung.
  19. Frodl, C. (Bearb.); Fischer, T. (Bearb.); Baker, T. (Bearb.); Rühle, S. (Bearb.): Deutsche Übersetzung des Dublin-Core-Metadaten-Elemente-Sets (2007) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1516) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1516,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1516, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1516)
      0.25 = coord(1/4)
    
    Abstract
    Dublin-Core-Metadaten-Elemente sind ein Standard zur Beschreibung unterschiedlicher Objekte. Die Kernelemente dieses Standards werden in dem "Dublin Core Metadata Element Set" beschrieben (http://www.dublincore.org/documents/dces/). Das Set setzt sich aus 15 Elementen zusammen, die gleichzeitig auch Teil der umfangreicheren "DCMI Metadata Terms" (http://www.dublincore.org/documents/dcmi-terms/) sind, wobei die "DCMI Metadata Terms" neben weiteren Elementen auch ein kontrolliertes Vokabular für Objekttypen enthalten. Die Übersetzung entstand zwischen April und Juli 2007 in der KIM-Arbeitsgruppe Übersetzung DCMES (http://www.kim-forum.org/kim-ag/index.htm). Anfang Juli 2007 wurde der Entwurf der Übersetzung in einem Blog veröffentlicht und die Öffentlichkeit aufgefordert, diesen Entwurf zu kommentieren. Anfang August wurden dann die in dem Blog gesammelten Kommentare in der KIM-Arbeitsgruppe Übersetzung DCMES diskutiert und so weit möglich in den Übersetzungsentwurf eingearbeitet.
  20. Pfeffer, M.: Automatische Vergabe von RVK-Notationen anhand von bibliografischen Daten mittels fallbasiertem Schließen (2007) 0.01
    0.007203712 = product of:
      0.028814849 = sum of:
        0.028814849 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.028814849 = score(doc=1558,freq=6.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.25465882 = fieldWeight in 1558, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1558)
      0.25 = coord(1/4)
    
    Abstract
    Klassifikation von bibliografischen Einheiten ist für einen systematischen Zugang zu den Beständen einer Bibliothek und deren Aufstellung unumgänglich. Bislang wurde diese Aufgabe von Fachexperten manuell erledigt, sei es individuell nach einer selbst entwickelten Systematik oder kooperativ nach einer gemeinsamen Systematik. In dieser Arbeit wird ein Verfahren zur Automatisierung des Klassifikationsvorgangs vorgestellt. Dabei kommt das Verfahren des fallbasierten Schließens zum Einsatz, das im Kontext der Forschung zur künstlichen Intelligenz entwickelt wurde. Das Verfahren liefert für jedes Werk, für das bibliografische Daten vorliegen, eine oder mehrere mögliche Klassifikationen. In Experimenten werden die Ergebnisse der automatischen Klassifikation mit der durch Fachexperten verglichen. Diese Experimente belegen die hohe Qualität der automatischen Klassifikation und dass das Verfahren geeignet ist, Fachexperten bei der Klassifikationsarbeit signifikant zu entlasten. Auch die nahezu vollständige Resystematisierung eines Bibliothekskataloges ist - mit gewissen Abstrichen - möglich.
    Imprint
    Berlin : Humboldt-Universität / Institut für Bibliotheks- und Informationswissenschaft

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications