Search (11762 results, page 555 of 589)

  • × language_ss:"d"
  1. Stollorz, H.: Flottes Oberstübchen : Das Gehirn enttarnt Sinnloses mit rasantem Tempo (2006) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 178) [ClassicSimilarity], result of:
          0.02900029 = score(doc=178,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 178, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=178)
      0.25 = coord(1/4)
    
    Content
    "Kaum zu glauben, welches Tempo unser Hirn an den Tag zu legen vermag, wenn es drauf ankommt. Auf ersichtlichen Unfug reagiert es regelrecht allergisch. Nehmen wir zum Beispiel den Satz: "Du wäschst deine Hände mit Pferd und Wasser." In weniger als 300 Millisekunden hat das Sprachzentrum erfasst, dass das Wort "Pferd" hier völlig fehl am Platz ist. Bei der korrekten Version "Du wäschst deine Hände mit Seife und Wasser" zeigten Versuchspersonen, deren Hirnströme mit einem Elektroenzephalogramm (EEG) vermessen wurden, dagegen keine auffällige Reaktion. Mit solchen Tricks versucht der Amsterdamer Psycholinguist Jos van Berkum schon seit einigen Jahren, dem Oberstübchen bei der Verarbeitung von Sprache auf die Schliche zu kommen. Beim "Forum 2006", zu dem sich in diesen Tagen in Wien rund 5000 europäische Neurowissenschaftler versammelten, verblüffte er mit neuen Befunden. Im Hirnstromlabor hatte er Männer zum Beispiel zu Frauen sagen lassen: "Ich komme gerade vom Gynäkologen." Oder: "Wenn ich doch nur so aussähe wie Britney Spears in ihrem neuesten Video." Diese Sätze sind zwar von der Wortfolge her korrekt, passen aber nicht, wenn ein Mann sie gegenüber einer Frau äußert. Van Berkum wollte wissen, was im Hirn der Zuhörerin passiert, wenn eine Aussage nicht ihren Erwartungen entspricht. Auch hier zeigte sich im EEG nach spätestens 300 Millisekunden ein charakteristisches Überraschungssignal. Offenbar erledigt das Gehirn beides zugleich: die sprachliche Logik eines Satzes zu erfassen und ihn darauf zu testen, ob er sich auch in den sozialen Kontext fügt. Bisher glaubte man, das Hirn ginge der Reihe nach vor. Akademische Spielereien? Keineswegs. Von Menschen, die sich in einem "Wachkoma" befinden, nimmt man gemeinhin an, dass sie keinerlei Bewusstsein und auch kein Sprachempfinden mehr haben. Israelische Forscher lasen Wachkoma-Patienten abwechselnd inhaltlich miteinander verbundene Wortpaare vor wie "Tag und Nacht", danach unpassende wie "Fisch und Hand". Ein Patient reagierte 12 Monate nach einem schweren Unfall mit einer erhöhten EEG-Aktivität auf das Kauderwelsch. Weitere zehn Monate später ist er aus seinem Wachkoma wieder erwacht. Jeder Arzt weiß, dass man solche Einzelfälle nicht überbewerten darf. Als Test auf ein verborgenes geistiges Potenzial im Wachkoma taugt der EEG-Test noch lange nicht. Insofern sei vor voreiligen Schlüssen ausdrücklich gewarnt. Formulieren wir es also mit der gebotenen Vorsicht: Immer öfter stellen Hirnforscher fest, dass ihre Erkenntnisse beileibe nicht nur die wissenschaftliche Neugierde befriedigen."
  2. Koch, C.: Bewusstsein : Bekenntnisse eines Hirnforschers (2013) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 311) [ClassicSimilarity], result of:
          0.02900029 = score(doc=311,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 311, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=311)
      0.25 = coord(1/4)
    
    Abstract
    Wie kann Aktivität im Gehirn Gefühle auslösen? Wie kann "bloßes Fleisch" - so wird der Körper in Cyberpunkromanen oft abfällig genannt -- subjektives Empfinden hervorbringen? Oder allgemeiner gesagt: Wie kann etwas Physisches etwas Nichtphysisches, subjektive Zustände erzeugen? Ob es der Zahnschmerz ist, die Freude beim Anblick der eigenen Kinder oder der Geschmack eines edlen Weins, sie alle haben denselben Ursprung in der Aktivität von Nervengewebe, im Bewusstsein. Christof Koch forscht seit Jahren über das Thema Bewusstsein. In einer Art Bestandsaufnahme zeigt er den derzeitigen Stand der Forschung auf, an dem auch maßgeblich Wissenschaftler wie Francis Crick, Ned Block, David Chalmers, Stanislas Dehaene, Giulio Tononi und Wolf Singer mitgewirkt haben. Ihm erscheint nicht als Widerspruch, mit naturwissenschaftlichen, empirischen Methoden erklären zu wollen, wie Gefühle entstehen. Wir sind uns der meisten Dinge, die in unserem Kopf vorgehen, nicht bewusst. Koch postuliert, dass Zombies ohne Bewusstsein in weiten Teilen unser Leben steuern, auch wenn wir der festen Überzeugung sind, darüber selbst zu bestimmen. Seiner Meinung nach wird es gelingen, empfindungsfähige Maschinen zu bauen - er liefert eine erste Vorlage hierfür im Buch. Er reflektiert so diverse Aspekte wie die Unterscheidung zwischen Aufmerksamkeit und Bewusstsein, das Unbewusste, die Physik und Biologie des freien Willen, Hunde, den Ring der Nibelungen, den Glauben an einen persönlichen Gott und Traurigkeit. Kochs Buch ist mehr als ein wissenschaftlicher Überblick - es ist zudem Bekenntnis, Autobiographie und futuristische Spekulation.
    Issue
    Aus d. Engl. übersetzt von Monika Niehaus und Jorunn Wissmann.
  3. Jansson, K.: Wikipedia - Die freie Enzyklopädie als Teil der digitalen Allmende des Wissens (2006) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 884) [ClassicSimilarity], result of:
          0.02900029 = score(doc=884,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 884, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=884)
      0.25 = coord(1/4)
    
    Abstract
    Die Online-Enzyklopädie Wikipedia wurde Anfang 2001 gegründet, existiert somit also seit fünf Jahren - für eine Enzyklopädie ist dies ein lächerlicher Zeitraum, für ein InternetProjekt schon fast ein biblisches Alter. Es gibt sie in über 100 Sprachen, insgesamt wurden bisher weit über drei Millionen Enzyklopädieartikel verfasst. Ich möchte im folgenden einen Einblick in die Entstehungsgeschichte des Wikipedia-Projektes geben und zeigen, welche Ziele bisher erreicht werden konnten, aber auch auf die Probleme eingehen, die bei einem Vorhaben dieser Größenordnung zwangsläufig entstehen. Das Online-Projekt Wikipedia nutzt als Basis des kollektiven Schreibens von Enzyklopädieartikeln eine spezielle Plattform: ein Wiki. (Der Name bezieht sich auf "wiki", das hawaiiarische Wort für "schnell".) Wikis sind im World Wide Web verfügbare Seitensammlungen, die von den Benutzern nicht nur gelesen, sondern auch online verändert werden können; sie sind somit offene Content-Management-Systeme. Hierdurch ist es jedem Leser möglich, sofort Korrekturen oder Ergänzungen an bestehenden Artikeln vorzunehmen oder gänzlich neue Artikel zu erstellen. Die klassische Unterscheidung zwischen den Autoren als Produzenten und Lesern als Konsumenten der Texte verschwimmt, da jeder Leser einen von ihm entdeckten Fehler - ob nun Kommafehler, inhaltlicher Fehler oder Auslassung eines wichtigen Sachverhalts - selbst korrigieren kann. Er muss dazu nur auf den Link Seite bearbeiten" klicken und kann dann in einem Eingabefeld den bestehenden Text verändern und abspeichern - die neue Version des Artikels ist daraufhin sofort von jedermann abrufbar. Wikis stellen somit das herkömmliche Modell der Erstellung von zur Veröffentlichung bestimmten Texten auf den Kopf: Die Veröffentlichung erfolgt im Moment des Abspeicherns, erst dann setzt der vielschichtige review Prozess ein. Dieses Verfahren bringt viele Vorteile, aber auch einige Nachteile mit sich.
    Source
    Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
  4. Palfrey, J.; Gasser, U.: Generation Internet : die Digital Natives: Wie sie leben - Was sie denken - Wie sie arbeiten (2008) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 56) [ClassicSimilarity], result of:
          0.02900029 = score(doc=56,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 56, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=56)
      0.25 = coord(1/4)
    
    Abstract
    Der Wandel, den die digitale Revolution ausgelöst hat, besteht nicht nur in ausgefeilten Suchmaschinen und neuen Geschäftsmodellen. Weit folgenreicher ist die wachsende Kluft zwischen denen, die im Sternzeichen Internet geboren sind, und jenen, für die das nicht gilt. Die Kinder einer neuen Generation, die sich ein Leben ohne Google nicht vorstellen kann, sind nun volljährig. Sie sind die ersten Digital Natives, deren Mediengewohnheiten unsere Wirtschaft, unsere Kultur, ja sogar unser Familienleben tiefgreifend verändern. Die bisher sichtbaren Veränderungen stellen dabei nur die Spitze des Eisbergs dar. Wie lebt diese global vernetzte Generation von Digital Natives? Wie unterscheiden sie sich von früheren Generationen? Wie gehen sie mit Informationen um? Wahren sie ihre Privatsphäre? Was bedeutet Identität für junge Menschen, die Online-Profile und Avatare haben? Wie müssen Unternehmen mit ihnen kommunizieren? Welche Chancen und Risiken ergeben sich für die Gesellschaft? Basierend auf aktuellen Forschungsergebnissen zeichnet dieses Buch der Internetexperten John Palfrey und Urs Gasser das Porträt einer digital geborenen Generation und gewährt faszinierende Einblicke für alle, die unsere digitale Gegenwart begreifen wollen, um zu wissen, wie die Zukunft zu gestalten ist.
  5. Habermas, J.: Erkenntnis und Interesse : mit dem Nachwort von 1973 (1973) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 1498) [ClassicSimilarity], result of:
          0.02900029 = score(doc=1498,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 1498, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1498)
      0.25 = coord(1/4)
    
    Abstract
    Ich unternehme den historisch gerichteten Versuch einer Rekonstruktion der Vorgeschichte des neueren Positivismus in der systematischen Absicht einer Analyse des Zusammenhangs von Erkenntnis und Interesse. Wer dem Auflösungsprozeß der Erkenntnistheorie, der an ihrer Stelle Wissenschaftstheorie zurückläßt, nachgeht, steigt über verlassene Stufen der Reflexion. Diesen Weg aus einer auf den Ausgangspunkt zurückgewendeten Perspektive wieder zu beschreiten, mag helfen, die vergessene Erfahrung der Reflexion zurückzubringen. Daß wir Reflexion verleugnen, ist der Positivismus. Die Analyse des Zusammenhanges von Erkenntnis und Interesse soll die Behauptung stützen, daß radikale Erkenntniskritik nur als Gesellschaftstheorie möglich ist. Diese Idee ist in Marxens Theorie der Gesellschaft impliziert, auch wenn sie dem Marxschen wie dem marxistischen Selbstverständnis nicht zu entnehmen ist. Gleichwohl habe ich selbst den objektiven Zusammenhang, in dem die philosophische Entwicklung von Hegel zu Nietzsche sich vollzieht, nicht untersucht und mich darauf beschränkt, der Bewegung des Gedankens immanent zu folgen. Diese Konsequenz ergibt sich: ich könnte nur um den Preis des Dilettantismus auf eine Gesellschaftstheorie vorgreifen, zu der ich Zugang durch eine Selbstreflexion der Wissenschaft erst gewinnen möchte. Dazu ist der erste Schritt getan. Mehr als den Stellenwert eines Prolegomenon kann die Untersuchung deshalb nicht beanspruchen. Die systematischen Gesichtspunkte, die sie leiten, habe ich zuerst in meiner Frankfurter Antrittsvorlesung vom Juni 1965 exponiert. Das Kapitel über Positivismus, Pragmatismus und Historismus geht auf Heidelberger Vorlesungen des Wintersemesters 1963/64 zurück. Ohne die bis in die Studienzeit zurückreichenden Diskussionen mit Karl-Otto Apel, ohne seine Anregungen und ohne seinen Widerspruch, hätte die Konzeption ihre gegenwärtige Form nicht gefunden. In dieser Konzeption nimmt, als ein Beispiel, die Psychoanalyse einen wichtigen Platz ein. Es scheint mir geboten, zu erklären, daß sich meine Kenntnis auf das Studium der Schriften Freuds beschränkt; auf die praktischen Erfahrungen einer Analyse kann ich mich nicht stützen. Gelernt habe ich indessen viel aus den Mittwochs-Diskussionen der Mitarbeiter des Sigmund-Freud-Instituts, die unter Leitung von Alexander Mitscherlich stattgefunden haben. Zu Dank bin ich Alfred Lorenzer verpflichtet, der mir Einblick in das Manuskript seiner Untersuchung über die methodologische Rolle des Verstehens in der Psychoanalyse, die vor dem Abschluß steht, gewährt hat. Ihr verdanke ich mehr Anregungen, als ich durch Hinweise kenntlich machen konnte.
  6. Schäffler, H.: Checkliste für die Entwicklung von E-Book-Standards aus bibliothekarischer Sicht (2008) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 2830) [ClassicSimilarity], result of:
          0.02900029 = score(doc=2830,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 2830, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2830)
      0.25 = coord(1/4)
    
    Abstract
    Der zunehmenden Bedeutung elektronischer Bücher wurde im Bibliotheksverbund Bayern unter anderem dadurch Rechnung getragen, dass im Juli 2006 durch die Kommission für Bestandsaufbau und Lizenzen (KBL) und die Arbeitsgruppe Virtuelle Bibliothek (AVB) eine Arbeitsgruppe E-Books eingerichtet wurde. Diese AG setzt sich aus Kolleginnen und Kollegen zusammen, die ein breites Spektrum an Themenfeldern sowie verschiedene Typen wissenschaftlicher Bibliotheken repräsentieren. Ein wesentlicher Arbeitsauftrag der AG E-Books bestand in der Erstellung eines Anforderungspapiers für E-Book-Standards aus bibliothekarischer Sicht. Diese Checkliste ist in einem Wiki hinterlegt, das unter der Adresse <http://ebookstandards.ub.uni-muenchen.de/> abgerufen werden kann. An dieser Stelle findet sich auch eine ausführliche und laufend gepflegte Literaturliste zum Thema. Die Arbeitsgruppe hat den Gegenstand ihrer Untersuchung wie folgt definiert: "Unter E-Books werden im vorliegenden Kontext monographische Werke in elektronischer Form verstanden. Darunter fallen sowohl Werke, die primär elektronisch bzw. parallel zur Druckausgabe erscheinen, als auch Digitalisate. Die Bandbreite reicht hier von Nachschlagewerken über wissenschaftliche Monographien und Lehrbücher bis hin zu Dissertationen. Der Schwerpunkt liegt auf dem Umgang mit lizenzpflichtigen E-Books. Nicht behandelt wird die Hardware in Form entsprechender Lesegeräte." Auch wenn es sich bei den E-Books im hier verstandenen Sinne um ein noch relativ junges Medium handelt, mangelt es nicht an der theoretischen Beschäftigung mit dieser Thematik. Warum also die Entwicklung eines solchen Anforderungspapiers? Im Vordergrund stand zunächst die Überlegung, eine kompakte Zusammenfassung der aus Sicht der Autoren wesentlichen Aspekte der [-Book-Thematik, zumindest bezogen auf den praktischen Einsatz in wissenschaftlichen Bibliotheken, zu erstellen, um diese im konkreten Dialog mit Verlagen, Aggregatoren und Händlern bzw. zur Bewertung vorliegender Angebote einsetzen zu können. Ein zweiter Motivationsstrang war die Frage nach "dem Innovationspotential von E-Books im Kontext moderner Formen der Wissensaneignung" angesichts der gegenwärtig noch stark ausgeprägten Orientierung der E-Books am linearen Charakter gedruckter Bücher. Ob es gelingt, den vorliegenden Kriterienkatalog zu einer Plattform zu entwickeln, auf der sich neue Ideen zur Weiterentwicklung der elektronischen Bücher laufend abbilden lassen, bleibt dabei sicherlich abzuwarten. Die unter einer Reihe von Überschriften zusammengefassten Inhalte der Checkliste haben zunächst beschreibenden Charakter, in dem versucht wird, wesentliche Problemfelder in knapper Form herauszuarbeiten. Verschiedentlich werden aber darüber hinausgehend konkrete Empfehlungen ausgesprochen, die nach Auffassung der Arbeitsgruppe entweder unabdingbare Voraussetzungen darstellen oder kontextbezogen bewertet werden müssen. Im vorliegenden Beitrag sollen die Kerngedanken der Checkliste auf dem aktuell erreichten Diskussionsstand zusammenfassend dargestellt werden!
  7. Yahoo kooperiert mit Google : Online-Werbung (2008) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 2925) [ClassicSimilarity], result of:
          0.02900029 = score(doc=2925,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 2925, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2925)
      0.25 = coord(1/4)
    
    Content
    "Yahoo will künftig mit dem Erzrivalen Google im Bereich Online-Werbung zusammenarbeiten. Zugleich erklärte der Internet-Konzern die Gespräche mit Microsoft über eine vollständige oder zumindest teilweise Übernahme durch den Softwareriesen für endgültig beendet. Konzernchef Jerry Yang sagte am Donnerstag, er sei der Auffassung, dass sich die Partnerschaft mit Google schneller auszahlen werde als ein Geschäft mit Microsoft. Yahoo will Google-Suchanzeigen auf seiner Seite platzieren. Dadurch könnten jährlich 800 Millionen Dollar (rund 517 Millionen Euro) an Umsatz erzielt werden, teilte der Konzern mit. Yang betonte, der Pakt mit Google schließe keine potenzielle künftige Fusion aus, auch nicht mit dem Microsoft. Yahoo konzentriere sich jedoch nun erst einmal auf sein eigenes Geschäft und die Partnerschaft mit Google. Das Abkommen ist zunächst auf vier Jahre angelegt und kann zweimal um je drei Jahre verlängert werden. Die Firmen räumten dem US-Justizministerium freiwillig eine Überprüfungsfrist von dreieinhalb Monaten vor dem Inkrafttreten der Vereinbarung ein. Sie benötigten für das Abkommen jedoch keine Zustimmung von den Kartellbehörden, hieß es in der Yahoo-Erklärung. Microsoft hatte sich seit Monaten um Yahoo bemüht. Der Internetkonzern hatte die Übernahmeofferte von 47,5 Milliarden Dollar aber als zu niedrig abgewiesen. Zuletzt wollte der weltgrößte Softwareproduzent daher immerhin das Yahoo-Suchmaschinengeschäft kaufen, wie zwei in die Angelegenheit eingeweihte Personen am Donnerstag sagten. Konkret habe Microsoft dazu einen 16-Prozent-Anteil an Yahoo erwerben wollen. Yahoo erklärte, dies passe nicht in seine Pläne. Nachdem bekannt wurde, dass die Gespräche zwischen Yahoo und Microsoft platzten, brach die Yahoo-Aktie um zehn Prozent auf 23,52 Dollar ein. Als der Konzern dann aber nach Handelsschluss in New York die Allianz mit Google verkündete, legten die Papiere wieder zu und kosteten nachbörslich 24 Dollar. Unklar war, wie die Entwicklung bei dem Yahoo-Großaktionär Carl Icahn ankam. Der Milliardär hatte mit Unverständnis auf die Ablehnung des Microsoft-Übernahmeangebots reagiert und deshalb das Management scharf angegriffen. Für eine Stellungnahme war er zunächst nicht erreichbar. Marktexperten sagten derweil, sie gingen davon aus, dass es keine weiteren Verhandlungen zwischen Microsoft und Yahoo geben werde. Microsoft werde nun aber versuchen, durch andere Übernahmen sich besser im Suchmaschinen-Wettbewerb gegen Google zu positionieren. Eine Möglichkeit sei der Kauf von AOL. Google ist mit großem Abstand Marktführer. Deshalb dürfte die Partnerschaft mit Yahoo auch auf eine genaue Prüfung durch die Wettbewerbsbehörden stoßen."
  8. Münker, S.: Was heißt eigentlich: »Virtuelle Realität«? : Ein philosophischer Kommentar zum neuesten Versuch der Verdopplung der Welt (1997) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 172) [ClassicSimilarity], result of:
          0.02900029 = score(doc=172,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 172, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=172)
      0.25 = coord(1/4)
    
    Abstract
    »Virtuelle Realität« ist der allgemeine Titel für die unterschiedlichsten Formen computergenerierter Nachbildungen der Wirklichkeit - von den textbasierten virtuellen Gemeinschaften der MUDs und MOOs des Internet bis hin zu den multimedialen Environments aus den High-End Rechnern der avancierten Laboratorien ziviler wie militärischer Forschung oder der Studios Hollywoods. Die radikalste Version der virtuellen Realität aber ist die anstehende Erzeugung einer digitalen Simulation dreidimensionaler Räumlichkeit im globalen Computernetz, kurz: der Cyberspace. Ihn auszubauen, ist eines der gemeinschaftlichen Ziele einer großen Koalition von privaten Computeranwendern und den Produzenten der Soft- sowie Hardwareindustrie; die Resultate vom eigenen Rechner oder von öffentlichen Terminals aus zu betreten, ist en vogue schon, bevor es sich lohnt. Um mit den zum gegenwärtigen Zeitpunkt verfügbaren technischen Mitteln in den kybernetischen Raum der multimedialen virtuellen Realität einzudringen, stülpen wir uns einen mit sensiblen Sensoren ausgerüsteten Datenhandschuh über und setzen uns einen mit hochauflösenden Monitoren und highfidelityfähigen Lautsprechern ausgerüsteten Datenhelm auf - wenn wir nicht gleich ganz in den Datenanzug schlüpfen. Das Bild ist bekannt; die ersten Cybernauten, Avantgarde des technologischen Fortschritts, erscheinen dabei im Zeitalter der Mikroelektronik dank ihrer voluminanten Ausrüstung bereits heute als antiquiert. Das allerdings ist lediglich ein Hinweis darauf daß die Perfektionierung schon absehbar ist. Die Prolepse der perfekten virtuellen Realität ist es, der sie ihren Namen - und ihren Ruf verdankt. Proportional zu der Kapazität des Rechners, welcher die Simulation erzeugt, nimmt unsere Fähigkeit ab, sie als Simulation überhaupt noch wahrzunehmen. Darin gründet die Faszination der virtuellen Welten. Der Schein der Simulation, keine zu sein, hat den Mythos begründet, sie sei mehr als bloße Illusion, eine ganz eigene und ganz wirkliche Welt; kein Teil der empirischen, sondern eine dieser irgendwie parallel liegenden, kybernetischen Nebenwelt im digitalen Raum: eben die virtuelle Realität. Doch - was heißt eigentlich: »Virtuelle Realität«?
  9. Reiner, U.: Automatische DDC-Klassifizierung bibliografischer Titeldatensätze der Deutschen Nationalbibliografie (2009) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 271) [ClassicSimilarity], result of:
          0.02900029 = score(doc=271,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 271, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=271)
      0.25 = coord(1/4)
    
    Abstract
    Das Klassifizieren von Objekten (z. B. Fauna, Flora, Texte) ist ein Verfahren, das auf menschlicher Intelligenz basiert. In der Informatik - insbesondere im Gebiet der Künstlichen Intelligenz (KI) - wird u. a. untersucht, inweit Verfahren, die menschliche Intelligenz benötigen, automatisiert werden können. Hierbei hat sich herausgestellt, dass die Lösung von Alltagsproblemen eine größere Herausforderung darstellt, als die Lösung von Spezialproblemen, wie z. B. das Erstellen eines Schachcomputers. So ist "Rybka" der seit Juni 2007 amtierende Computerschach-Weltmeistern. Inwieweit Alltagsprobleme mit Methoden der Künstlichen Intelligenz gelöst werden können, ist eine - für den allgemeinen Fall - noch offene Frage. Beim Lösen von Alltagsproblemen spielt die Verarbeitung der natürlichen Sprache, wie z. B. das Verstehen, eine wesentliche Rolle. Den "gesunden Menschenverstand" als Maschine (in der Cyc-Wissensbasis in Form von Fakten und Regeln) zu realisieren, ist Lenat's Ziel seit 1984. Bezüglich des KI-Paradeprojektes "Cyc" gibt es CycOptimisten und Cyc-Pessimisten. Das Verstehen der natürlichen Sprache (z. B. Werktitel, Zusammenfassung, Vorwort, Inhalt) ist auch beim intellektuellen Klassifizieren von bibliografischen Titeldatensätzen oder Netzpublikationen notwendig, um diese Textobjekte korrekt klassifizieren zu können. Seit dem Jahr 2007 werden von der Deutschen Nationalbibliothek nahezu alle Veröffentlichungen mit der Dewey Dezimalklassifikation (DDC) intellektuell klassifiziert.
    Die Menge der zu klassifizierenden Veröffentlichungen steigt spätestens seit der Existenz des World Wide Web schneller an, als sie intellektuell sachlich erschlossen werden kann. Daher werden Verfahren gesucht, um die Klassifizierung von Textobjekten zu automatisieren oder die intellektuelle Klassifizierung zumindest zu unterstützen. Seit 1968 gibt es Verfahren zur automatischen Dokumentenklassifizierung (Information Retrieval, kurz: IR) und seit 1992 zur automatischen Textklassifizierung (ATC: Automated Text Categorization). Seit immer mehr digitale Objekte im World Wide Web zur Verfügung stehen, haben Arbeiten zur automatischen Textklassifizierung seit ca. 1998 verstärkt zugenommen. Dazu gehören seit 1996 auch Arbeiten zur automatischen DDC-Klassifizierung bzw. RVK-Klassifizierung von bibliografischen Titeldatensätzen und Volltextdokumenten. Bei den Entwicklungen handelt es sich unseres Wissens bislang um experimentelle und keine im ständigen Betrieb befindlichen Systeme. Auch das VZG-Projekt Colibri/DDC ist seit 2006 u. a. mit der automatischen DDC-Klassifizierung befasst. Die diesbezüglichen Untersuchungen und Entwicklungen dienen zur Beantwortung der Forschungsfrage: "Ist es möglich, eine inhaltlich stimmige DDC-Titelklassifikation aller GVK-PLUS-Titeldatensätze automatisch zu erzielen?"
  10. Braun, M.: Lesezeichen zum Stöbern : "Social bookmark"-Seiten setzen auf die Empfehlungen ihrer Nutzer (2007) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 360) [ClassicSimilarity], result of:
          0.02900029 = score(doc=360,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 360, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=360)
      0.25 = coord(1/4)
    
    Content
    "Irgendwann ist es einfach zu viel Information. Einmal "Schokolade" bei Google eingeben und mal eben 9 870 000 Links zur Auswahl. "Pilgern - 800 000 Einträge. 21400 000 für "Hörbuch. Die Auswahl fällt schwer, und wer hat schon die Geduld, sich alle Seiten anzugucken. Am besten wäre es, irgendjemand könnte eine der, vielen Seiten empfehlen. Auf eben dieses Prinzip setzen immer mehr Internet-Seiten. Seiten wie www.mister-wong.de bestehen nur aus Empfehlungen von Nutzern für Nutzer. Immerhin vier empfehlen die Webseite zum Pralinenclub, acht Nutzer haben sich für www.theobroma-cacao.de ein Lesezeichen angelegt, beim Pilgern sind sich auch gleich einige Benutzer einig, welche Seite sie am liebsten zum Thema lesen und empfehlen. "Social bookmarks" - Lesezeichen, die man anderen zur Verfügung stellt - sind vor allem auf englischsprachigen Seiten zu finden. Mit Anbietern wie "Mister Wong" oder "Netselektor" können jetzt auch die Deutschen ihre Lieblingslesezeichen im Internet mit anderen teilen. "Bei den großen Suchmaschinen haben es gute Seiten oft schwer: Wenn sie nicht bei Yahoo oder Google nach der Suchanfrage ganz oben stehen, findet sie niemand", sagt "Mister Wong"Pressesprecher Christian Clawien. Für ihn ist das Konzept der "Social bookmarks" die ideale Alternative zur mechanischen Suchmaschine. Noch sind die Zahlen der Aktiven aber gering. 1,3 Millionen abgespeicherte Bookmarks verzeichnet "Mister Wong" seit der Gründung im März 2006. Vor allem Leute, die sowieso bereits einen guten Draht zum Internet haben, nutzten das Angebot, sagt Clawien. Langsam beginnt die Phase, wo Monetarisierung möglich ist." Langfristig soll auch Werbung auf der Seite erscheinen. Bei "www.netselektor.de", im November 2006 gegründet, sitzt zudem noch eine Redaktion vor dem Computer, die die abgelegten Lesezeichen der Nutzer durchforstet und die besten Empfehlungen noch mal als qualitativ hochwertig vorstellt. Nach und nach soll so in Zusammenarbeit mit den Usern ein "Best-of-Internet" entstehen. Natürlich nur mit den Internet-Juwelen, die einer Empfehlung würdig sind. Allerdings erreichen die "Social bookmark"-Seiten auch schnell ihre Grenzen: Nicht alle Stichworte bringen Ergebnisse, nicht immer sind die Vorlieben der Nutzer für Internet-Seiten nachvollziehbar, und noch reicht auch nicht die Anzahl der beteiligten Nutzer, um tatsächlich all die verborgenen Juwelen im riesigen weltweiten Netz zutage zu fördern. Originelles gibt es aber trotzdem schon jetzt - vom Karaoke Trainer bis zu www.dontclick.it", die Seite, die ohne Maus funktionieren soll."
  11. Brocke, J. vom: Referenzmodellierung : Gestaltung und Verteilung von Konstruktionsprozessen (2003) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 401) [ClassicSimilarity], result of:
          0.02900029 = score(doc=401,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 401, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=401)
      0.25 = coord(1/4)
    
    Abstract
    Die Motivation dieser Arbeit entspringt praktischen Problemstellungen. So sind zur Bewältigung betriebswirtschaftlicher Probleme in zunehmendem Ausmaß Informationssysteme zu entwickeln, die zur Förderung der Wirtschaftlichkeit anhand von Informationsmodellen beschrieben werden. Dabei fällt auf, dass - obwohl die jeweils behandelten betriebswirtschaftliche Problemstellungen durchaus thematisch verwandt sind -, einzelne Entwicklungsprojekte kaum voneinander profitieren. Bedauerlich ist hierbei nicht allein der wiederholt zu betreibende Konstruktionsaufwand, sondern auch die Inkompatibilität der inter- und intraorganisational vorliegenden Ergebnisse. In der Theorie sind für derartige Probleme Referenzmodelle einzusetzen, in denen repräsentative Konstruktionsergebnisse so beschrieben werden, dass sie in einzelnen Konstruktionsprozessen von Informationsmodellen wieder verwendet werden können. In der Praxis jedoch scheint das "passende" Referenzmodell meist nicht vorzuliegen. Dies ist umso beachtlicher, da mittlerweile sowohl eine Vielzahl an Informationsmodellen als Referenzmodelle vorgeschlagen werden als auch im jungen Forschungsgebiet der Referenzmodellierung bereits Gestaltungsempfehlungen für die Konstruktion von Referenzmodellen erarbeitet wurden. Warum werden vorgeschlagene Referenzmodelle kaum verwendet und wie können Konstruktionsprozesse gestaltet werden, damit die theoretisch gegebenen Potenziale von Referenzmodellen auch praktisch genutzt werden? Antworten auf diese erkenntnisleitenden Fragen zu finden, bildete die Motivation der vorliegenden Forschungsarbeit. Im Zuge der Untersuchungen sind einige grundsätzliche Erkenntnisansätze sowie Gestaltungsstrategien sichtbar geworden: Die geringe Akzeptanz der Referenzmodelle erklärt sich zu einem großen Teil dadurch, dass bislang eine zu enge Sicht auf die Gestaltung ihrer Konstruktionsprozesse eingenommen wird. Arbeiten beschränken sich auf Beiträge zu methodenbezogenen Aspekten, während die Verwendung der Modelle auf pragmatischer Ebene fehlschlägt. Durch die Ausweitung dieser Sicht, vor allem auf organisationsbezogene Aspekte, werden erhebliche Verbesserungspotenziale durch eine Verteilung der Konstruktionsprozesse aufgezeigt. Eine solche Gestaltung folgt der Vorstellung, relevante Interessengruppen von Referenzmodellen durch Austausch- und Diskursprozesse kontinuierlich in die Entwicklung einzubeziehen, sodass ein bewährter Bestand an Modellen erzeugt und evolutionär an neue Anforderungen angepasst werden kann. Innovative Ansätze des Open Source und Component Based Software Engineering belegen das Erfolgspotenzial derartiger Gestaltungen, zeigen jedoch zugleich kritische Anforderungen an die Prozessgestaltung auf. Zur Erschließung dieser Potenziale für die Referenzmodellierung wird hier das Konzept der verteilten Referenzmodellierung eingeführt.
  12. Frodl, C; Scheven, E.; Werner, C.: Veröffentlichung der 6. RSWK-Ergänzungslieferung (2010) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 48) [ClassicSimilarity], result of:
          0.02900029 = score(doc=48,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 48, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=48)
      0.25 = coord(1/4)
    
    Content
    "Die Deutsche Nationalbibliothek hat die 6. RSWK-Ergänzungslieferung zur 3., überarbeiteten und erweiterten Auflage der "Regeln für den Schlagwortkatalog (RSWK)" veröffentlicht. Diese Ergänzungslieferung steht in elektronischer Form kostenfrei zur Verfügung <http://www.d-nb.de/standard isierung/regelwerke/afs_dok_reg_entw.htm> <http://www.d-nb.de/standardisierung/pdf/rswk_erg_6.pdf> <http://nbn-resolving.de/urn/resolver.pl?urn=urn:nbn:de:101-2009120709> Die Ergänzungslieferung enthält insbesondere Änderungen an den Grundregeln in den §§ 13-15, die auf Ergebnisse der Arbeitsgruppe Strategie der Sacherschließung zurückgehen. Die Benennung "Schlagwortkette" wurde durch "Schlagwortfolge" ersetzt, um die Assoziation einer festen Verknüpfung von Schlagwörtern zu vermeiden. § 13 legt fest, wann eine oder mehrere Schlagwortfolgen gebildet werden und vereinheitlicht die bisher gehandhabte Anwendung der RSWK.
    § 14 regelt die Anordnung der Schlagwörter in einer Schlagwortfolge. Sie wurde auf eine formale Reihenfolge vereinfacht; bei Zusammentreffen von mehreren Schlagwörtern der gleichen Kategorie soll eine sinnvolle Reihenfolge gewählt werden. § 15 macht grundsätzliche Aussagen zur Anzeige und zum Retrieval von Schlagwortfolgen. Außerdem wurde § 106 dahingehend geändert, dass in Zukunft der Homonymenzusatz bei Personen nur eine der SWD zu entnehmende Bezeichnung sein soll; die Unterscheidung von engen und weiten Berufsbezeichnungen mit einer zugelassenen Liste wird aufgegeben. In § 731 wird hinsichtlich der Kirchenbauten präzisiert, welche Bezeichnungen als Individualnamen gelten. Die Expertengruppe Sacherschließung hat die Änderungen an den RSWK auf ihren Sitzungen am 20. April 2009 bzw. 16. November 2009 beschlossen. Der Standardisierungsausschuss hat auf seiner 18. Sitzung am 25. November 2009 einer Veröffentlichung und Inkraftsetzung zum 1. Januar 2010 zugestimmt. Die Anpassungen des Regelwerks, die sich aus den geänderten §§ 13-15 ergeben, sollen Anfang 2010 veröffentlicht werden. Die Papierausgabe des Grundwerks in der 3., überarbeiteten und erweiterten Auflage sowie die 1. bis 4. Ergänzungslieferung der "Regeln für den Schlagwortkatalog" können Sie beziehen über die: Deutsche Nationalbibliothek, Bibliografische Dienste Adickesallee 1, 60322 Frankfurt am Main Fax: 069/1525-1636, E-Mail: [email protected] Die 5. Ergänzungslieferung steht in elektronischer Form unter der oben genannten Webseite zur Verfügung.
  13. Hebestreit, S.: "Es darf keine auf ewig festgelegten IP-Adressen geben" : Internetprotokoll IPv6 (2012) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 1226) [ClassicSimilarity], result of:
          0.02900029 = score(doc=1226,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 1226, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1226)
      0.25 = coord(1/4)
    
    Content
    "Grundsätzliche Bedenken gegen den neuen IPv6-Standard möchte Thilo Weichert nicht formulieren. Doch der Datenschutzbeauftragte des Landes Schleswig-Holstein sieht ein wachsendes Risiko, dass mit dem neuen Standard "genaue Profile von Nutzern angelegt werden können". Genau dies gelte es aber zu verhindern. Deshalb wirbt Weichert, einer der renommiertesten Datenschützer der Republik, dafür, die Vergabe von festen IP-Adressen für technische Geräte zu verhindern. "Als Datenschützer arbeiten wir ganz massiv darauf hin, dass eben keine auf ewig festgelegten IP-Nummern vergeben werden", sagte er im Gespräch mit der Frankfurter Rundschau. Er sieht sonst die Gefahr, dass es vergleichsweise einfach wird, Nutzerprofile zu erheben. Ständiger Kennzeichenwechsel Relativ einfach könnten Informationen über Nutzer miteinander verknüpft werden. Über feste IP-Adressen sei herauszubekommen, über welches Smartphone ein Nutzer verfügt, wie alt sein Kühlschrank ist, welche Kaffeemaschine er hat und wie häufig er von seinem Heim-Rechner aus im Internet unterwegs ist. Daten, die die wenigsten Nutzer gerne preisgeben. Daten auch, an denen Industrie, Handel und Werbung sehr interessiert sind. Weicherts Vorschlag: "Die Adressen sollten weiterhin dynamisch vergeben wird." Schon bisher werden IP-Adressen immer wieder gewechselt, weil nicht für alle Nutzer zu jedem möglichen Zeitpunkt ausreichend Adressen vorhanden sind. So bewegen sich Internetnutzer quasi mit wechselndem Kennzeichen durchs Internet. Nur der Provider, der Internetanbieter, kann anhand seiner Datenbank ermitteln, welcher Anschluss sich zu einem bestimmten Zeitpunkt mit einer bestimmten IP-Adresse im Netz bewegt hat. Datenschützer sehen in diesem ständigen Wechsel einen wichtigen Schutz der Privatsphäre. Mit dem neuen Standard besteht der Engpass nicht mehr. Für jeden Nutzer und für all seine internetfähigen Geräte ist eine eigene Nummer vorrätig. Dennoch, so verlangen es die deutschen Datenschützer, sollten die Adressen weiterhin gewechselt werden. "Wir wollen die geltenden Standards von IPv4, die eine Identifizierung erschweren, deshalb fortschreiben", sagt Weichert. Die Industrie dringt auf feste IP-Adressen, weil sie ein großes Interesse an den anfallenden Daten hat - um Werbung zu schalten, um das Nutzerverhalten erfassen und die Daten auswerten zu können. "Es besteht ein echter Interessenkonflikt", sagt Weichert. Es drohe eine Auseinandersetzung zwischen den Verwertungsinteressen der Industrie an den zusätzlichen digitalen Spuren, die mit IPv6 möglich sind, und den Interessen von Datenschützern, Verbrauchern - "und hoffentlich der Politik". Einen Vorteil könnte IPv6 aber auch bieten, die Chance auf mehr Anonymität im Netz. Denn durch die viel höhere Zahl an möglichen IP-Adressen wird es künftig schwerer werden, einzelne Nutzer oder Geräte zuordnen zu können - solange IP-Nummern weiter dynamisch vergeben werden."
  14. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 1897) [ClassicSimilarity], result of:
          0.02900029 = score(doc=1897,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 1897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1897)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  15. Eversberg, B.: KatalogRegeln 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 2657) [ClassicSimilarity], result of:
          0.02900029 = score(doc=2657,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 2657, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2657)
      0.25 = coord(1/4)
    
    Abstract
    Text zum besseren Verständis der RDA und des Toolkits. - Gedacht zum Gebrauch an der UB Braunschweig für den Einstieg in das Verständnis des neuen Regelwerks. Der zweite Teil ist eine Eigenübersetzung der Einleitung mit Orientierung an der bisher gebräuchlichen Begrifflichkeit. Diese Übersetzung ist jedoch nicht zur Veröffentlichung oder sonstigen Verbreitung gedacht , weil sie eine unautorisierte Übersetzung eines urheberrechtlich geschützten Textes darstellt.
    Content
    Vgl. auch den Text einer Mail vom 04.02.2015: "Nachdem uns nun, nach längerem Bemühen, ein konsortialer Zugriff zum RDA-Toolkit zu Diensten steht, haben wir unser Einführungspapier nochmal gründlich bearbeitet: http://www.allegro-c.de/regeln/rda/Vorwort_und_Einleitung.pdf. Es besteht aus einem selbstgeschriebenen Vorwort (das Original hatkeins) und einer selbstgemachten Übersetzung der Einleitung (dem Original mangelt's ein wenig an der Sprachqualität, weil man sich aus wohl erwogenen Gründen äußerst eng an die Formulierungen und Ausdruckweisen des Originals halten zu sollen meinte.) Am Ende schließt sich ein Nachwort an (im Original ebenfalls keins, ist aber auch nicht üblich bei Regelwerken), und eine Seite mit den wichtigsten Links zu bedeutenden Ressourcen. Einen eigenen Titel und ein Titelseiten-Äquivalent hat die deutsche Ausgabe auch nicht. Vermutlich wollte man mal gleich ein Beispiel schaffen für eine etwas schwierig zu katalogisierende "integrierende Ressource". Man hat's auch in Frankfurt noch nicht geschafft, dort findet man nur die 2013er Übersetzung, inzwischen überholt: http://d-nb.info/1021548286. Amazon hat noch 2 Stück und weist 57 Exemplare von anderen Anbietern nach, Einheitspreis 129.95 Euro. Toolkit Einzel-Lizenz: 161 Euro/Jahr. Im März soll der "Wiesenmüller-Horny" kommen, als Preis sind momentan 39.95 genannt, sowie 600 Euro für das PDF. (deGruyter hat die deutschen Vertriebsrechte an allem, was die alternativlose "cash cow" RDA des Verlags ALA Publishing betrifft.) Immerhin ist Haller-Popst noch noch nicht auf den Ramschtischen gelandet sondern für 59.95 im Handel, gebraucht aber ab 6.13, RAK-WB nur noch gebraucht für 2.99. " Vgl. auch: http://www.basiswissen-rda.de/blog/
  16. Welzer, H.: ¬Die smarte Diktatur : der Angriff auf unsere Freiheit (2016) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 163) [ClassicSimilarity], result of:
          0.02900029 = score(doc=163,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 163, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=163)
      0.25 = coord(1/4)
    
    Abstract
    Unsere Gesellschaft verändert sich radikal, aber fast unsichtbar. Wir steuern auf einen Totalitarismus zu. Das Private verschwindet, die Macht des Geldes wächst ebenso wie die Ungleichheit, wir kaufen immer mehr und zerstören damit die Grundlage unseres Lebens. Statt die Chance der Freiheit zu nutzen, die historisch hart und bitter erkämpft wurde, werden wir zu Konsum-Zombies, die sich alle Selbstbestimmung durch eine machtbesessene Industrie abnehmen lässt, deren Lieblingswort »smart« ist. Was heißt das für unsere Gesellschaft? Nach seinem Bestseller >Selbst denken< analysiert Harald Welzer in >Die smarte Diktatur. Der Angriff auf unsere Freiheit<, wie die scheinbar unverbundenen Themen von big data über Digitalisierung, Personalisierung, Internet der Dinge, Drohnen bis Klimawandel zusammenhängen. Daraus folgt: Zuschauen ist keine Haltung. Es ist höchste Zeit für Gegenwehr, wenn man die Freiheit erhalten will! Bestseller-Autor Harald Welzer legt mit >Die smarte Diktatur. Der Angriff auf unsere Freiheit< eine neue und frische Analyse der großen gesellschaftlichen Zusammenhänge in Deutschland vor, eine umfassende Diagnose der Gegenwart für alle politisch Interessierten.
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Content
    Rez. in: Mitt. VOEB 70(2017) Nr.3/4, S.390-393 (B. Ecker): "Im Großen und Ganzen ist das Buch aber enttäuschend."
  17. Lanier, J.: Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst (2018) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 448) [ClassicSimilarity], result of:
          0.02900029 = score(doc=448,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 448, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=448)
      0.25 = coord(1/4)
    
    Abstract
    Um .Zehn Gründe.... zu lesen, reicht ein einziger Grund: Jaron Lanier. Am wichtigsten Mahner vor Datenmissbrauch, Social-Media-Verdummung und der fatalen Umsonst-Mentalität im Netz führt in diesen Tagen kein Weg vorbei. Frank Schätzing Ein Buch, das jeder lesen muss, der sich im Netz bewegt. Jaron Lanier, Tech-Guru und Vordenker des Internets, liefert zehn bestechende Gründe, warum wir mit Social Media Schluss machen müssen. Facebook, Google & Co. überwachen uns, manipulieren unser Verhalten, machen Politik unmöglich und uns zu ekligen, rechthaberischen Menschen. Social Media ist ein allgegenwärtiger Käfig geworden, dem wir nicht entfliehen können. Lanier hat ein aufrüttelndes Buch geschrieben, das seine Erkenntnisse als Insider des Silicon Valleys wiedergibt und dazu anregt, das eigenen Verhalten in den sozialen Netzwerken zu überdenken. Wenn wir den Kampf mit dem Wahnsinn unserer Zeit nicht verlieren wollen, bleibt uns nur eine Möglichkeit: Löschen wir all unsere Accounts!
    Imprint
    Hamburg : Hoffmann und Campe
    Issue
    2. Auflage. Aus dem amerikanischen Englisch von Martin Bayer und Karsten Petersen.
  18. Rombach, H.: ¬Die Gegenwart der Philosophie : die Grundprobleme der abendländischen Philosophie und der gegenwärtige Stand des philosophischen Fragens (1988) 0.01
    0.0072500724 = product of:
      0.02900029 = sum of:
        0.02900029 = weight(_text_:und in 1940) [ClassicSimilarity], result of:
          0.02900029 = score(doc=1940,freq=12.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24009462 = fieldWeight in 1940, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1940)
      0.25 = coord(1/4)
    
    Abstract
    "Rombach präsentiert zur Grundlage seiner Meditationen über das gegenwärtig zukünftige Denken eine in sich erstaunlich konsequente, aber keineswegs gewaltsame Interpretation der gesamten abendländischen Philosophiegeschichte. Freilich treibt er auch Philosophiegeschichte in einem unüblichen Stil. Ebensowenig wie es ihm um eine Bestandsaufnahme der in unserer Zeit publizierten Philosophie geht, zielt er auf die Vermittlung von Kenntnissen über die Philosophie früherer Zeiten ab. Statt dessen fragt er, wie Philosophie als solche und im ganzen nicht nur gegenwärtig ist, sondern je gegenwärtig war. Hinter dieser Frage steht die zentrale These, Philosophie bedeute nicht zu allen Zeiten dasselbe. Damit soll durchaus nicht die banale Tatsache festgestellt werden, daß die Philosophen verschiedener Zeiten zu verschiedenen Ergebnissen gekommen sind. Vielmehr ist Rombachs Meinung die, daß das Wesen der Philosophie epochal geprägt ist, daß sowohl ihr "Standort" wie ihre "Bewegungsform" sich von Epoche zu Epoche wandeln. Diese These ist alles andere als banal, sie ist schockierend und revolutionär." Michael Theunissen, Philosophisches Jahrbuch "Rombachs Buch setzt Gedanken und Erfahrungen frei, weil es nicht die all- und altbekannten Inhalte wiederholt, sondern die Form- und Bewegungsfiguren herausstellt, die den Zugang zu den einzelnen Positionen erschließen. Es treten Gestalten hervor, die die Gewalten verdeutlichen, die sie ausgeformt haben. Gewiß, Rombachs Studie ist nur eine Skizze, mit allen Mängeln einer solchen. Aber als Skizze ist es eine meisterhafte". [Richard Wisser, Frankfurter Allgemeine Zeitung]
  19. Misslbeck, A.: ¬Der Sesam öffnet sich :-) (2003) 0.01
    0.0071646073 = product of:
      0.02865843 = sum of:
        0.02865843 = weight(_text_:und in 4768) [ClassicSimilarity], result of:
          0.02865843 = score(doc=4768,freq=30.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.23726434 = fieldWeight in 4768, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4768)
      0.25 = coord(1/4)
    
    Content
    "Menschenleer sind die asbestsanierten Gänge der Silberlaube an der Freien Universität Berlin in den Semesterferiem. Doch irgendwo im rechtwinkligen Wirrwarr zwischen Gang K und L steht eine Tür offen. Sie führt zum Büro von Katja Mruck am Fachbereich Erziehungswissenschaft und Psychologie. Die zarte Frau mit langem und dichtem Haar tritt ihren Gesprächspartnern selten persönlich gegenüber. Mit Forschungspartnern verkehrt sie meist auf elektronischem Weg - das aber umso reger. Katja Mruck ist geschäftsführende Herausgeberin der Online-Zeitschrift Forum Qualitative Sozialforschung / Forum: Qualitative Social Research / Foro: Investigación Social Cualitativa, kurz FQS. Der Name verweist schon auf die internationale Ausrichtung. "Überall auf der Welt arbeiten Leute an der gleichen Sache", sagt Mruck, "das ist ein Traum, wie Wissenschaft funktionieren kann." Im dreisprachigen OnlineJournal erscheinen regelmäßig wissenschaftliche Texte aus dem Bereich der qualitativen Forschung einer Methode, bei der die Forscher ihre Erkenntnisse unter anderem aus langen, tief gehende Interviews gewinnen statt standardisierte Fragebögen zu verwenden. Jeder kann sie lesen, wenn er des Englischen, Deutschen oder Spanischen mächtig ist und einen Internetzugang besitzt. Psychologen, Soziologen und Kulturforscher arbeiten oft qualitativ: doch meist befinden sie sich damit am Rand. ihrer Disziplinen. Das war einer der Anstöß für Katja Mruck, eine gemeinsame Plattform einzurichten, um die Forschung voranzutreiben. Wichtiger war ihr aber. der internationale Ansatz, denn in anderen Ländern hat die qualitative Forschung teilweise einen höheren Stellenwert. Wenn ihr wollt, dass die Leute euch weltweit wahrnehmen, dann müsst ihr bei uns schreiben", sagt Mruck mitunter zu ihren Autoren. Durch das Feedback aus aller Welt weiß sie, dass FQS überall gelesen wird. "Weil es uns gibt, kann diese deutschsprachige Literatur nach draußen, und das Wissen von draußen kommt nach Deutschland", sagt Mruck. Nichts geht mehr ohne Qualitätssicherung. Damit das möglichwurde, kommt in FQS das Peer-Review-Verfahren zum Einsatz, bei dem zwei unabhängige externe Gutachter den Text vor der Veröffentlichung beurteilen, ohne den; Autor zu kennen. Um-gekehrt kennt auch der Autor die Gutachter. nicht: Damit wird sichergestellt, dass die Beurteilung ohne Ansehen der Person geschieht. Nur begrenzt betreibt die deutsche Sozialforschung diese aufwändige Qualitätssicherung bei Veröffentlichungen von qualitativen Forschungsergebnissen. Mruck sagt: "Ich glaube, unsere Standards sind höher als die von manchen sozialwissenschaftlichen Printzeitschriften im deutschen Raum." Zusätzlich arbeiten deutsche, englisch- und spanischsprachige Wissenschaftler finit den Autoren an den eingereichten Texten, bevor sie im Internet erscheinen. Dann stehen sie weltweit-nicht nur anderen Wissenschaftlern, sondern auch dem breiten Publikum zur Verfügung. Jeder kann seinen Kommentar dazu abgeben. Auch die Deutsche Forschungsgemeinschaft (DFG), die FQS fördert, hält die Qualitätssicherung für extrem wichtig. Der Leiter der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme der DFG, Jürgen Bunzel, ist der Meinung, "dass das Peer-Review-Verfahren letztendlich die Erfolgsbedingung der Open-Access-Bewegung" ist.
    Im naturwissenschaftlichen Bereich sind Peer Reviews längst Gang und. Gäbe. Extrem teure Wissenschaftsmagazine begründen unter anderem damit oft ihre hohen Preise. Mit Open Access im Internet geht es plötzlich auch kostenlos. Das empfinden viele Wissenschaftsverlage als Affront. Einer der: geistigen Väter der Bewegung, Nobelpreisträger Harold Varmus, sagte in einem Zeit-Interview: "Es gibt Zeitschriften, die verlangen für ein institutionelles Abonnement bis zu 15.000 Dollar pro Jahr - das ist irrational, denn es behindert den Aus;tausch von Information zwischen den Forschern:" Varmus ist einer der Gründer der US-amerikanischen Public Library of Science (PLoS), die am 9. Oktober mit einem kostenlosen Biologiejournal an die Internet-Öffentlichkeit getreten ist. Die Nonprofit-Organisation verlangt das nötige Geld nicht von den Lesern, sondern von den Autoren oder den wissenschaftlichen Instituten, die durch die Veröffentlichung ihr Renommee erhöhen. Ohne Peer Review könnte PLoS Biology nicht in Konkurrenz zu den teuren Zeitschriften treten. Die wissenschaftliche Gemeinde würde die Online-Veröffentlichung nicht anerkennen. Für den freien Zugang zu den Erstveröffentlichungen nennt Varmus einleuchtende Gründe: "Der größte Teil der Wissenschaft wird durch Steuern finanziert. Deshalb sind wir der festen Überzeugung, dass die Publikationen allen zugänglich sein sollten." Zwar sind geisteswissenschaftlichen Zeitschriften noch vergleichsweise preisgünstig. Dennoch führt Klaus Graf von der Universität Freiburg auch für diesen Bereich an einem Beispiel vor Augen, dass die öffentliche Hand gleich viermal in ihre eigenen Taschen greifen muss, bis die Ergebnisse einer eingeschränkten Öffentlichkeit zur Verfügung stehen: Die Gehälter der Wissenschaftler, Reisekosten und einiges mehr zahlt der Staat. Auch die redaktionelle Überarbeitung finanziert die öffentliche Hand: Der Verlag will kostendeckend arbeiten und holt sich Druckkostenzuschüsse von öffentlichen Geldgebern dazu. Schließlich sind auch die Bibliotheken, die die Publikation anschaffen, vom Steuerzahler finanziert. Graf fasst zusammen: "Der Staat kauft seine eigenen Forschungsergebnisse zurück."
    Damit wissenschaftliche Veröffentlichungen finanziell künftig besser auf eigenen Beinen stehen können; fördert die DFG seit einigen Jahren auch Open-Ac-, cess-Projekte. "Wir stehen der Open-Access-Bewegung mit großer Sympathie gegenüber, sagt Bunzel von der DFG, "aber wir akzeptieren auch den Wunsch nach Veröffentlichung in namhaften Zeitschriften." Ein "Paradeprojekt" der Open-Access-Bewegung in Deutschland seien die German Academic Publishers (GAP), eine Publikationsplattform, die es Hochschulen ermöglichen soll, im Netz zu publizieren. Viele Universitätsbibliotheken, allen voran die Universitäten Hamburg und Karlsruhe; haben sich GAP ange-schlossen. Sie arbeiten mit dem FQS von Katja Mruck zusammen. GAP entwickeln technische Komponenten für den elektronischen Publikationsprozess. Dazu steht FQS gewissermaßen als Übungsterrain zur Verfügung. FQS arbeitet nicht nur, selbst international und vernetzt, sondern engagiert sich: auch in der breit angelegten Budapest Open Access Initiative (BOAI). Sie wird nicht nur von- wissenschaftlichen Projekten unterstützt, sondern zum Beispiel auch von. der Berliner Rosa-Luxemburg-Stiftung. Die Mitglieder unterzeichneten am 17. Januar 2002 die Budapest Open Access Declaration. Sie enthält im Schlusssatz die Vision der Bewegung: "Unsere gemeinsame Anstrengung wird auch zu einer Entwicklung beitragen, in deren Verlauf Wissenschaft und Bildung sich in der Zukunft überall auf der Welt freier und offener entfalten können, als dies bisher der Fall war."
  20. Haubner, S.: Was uns Google vorenthält : Alternativen zum Marktführer gibt es beim Suchen im Internet kaum - Wir erklären, wie der Suchmaschinen-Gigant "Google" funktioniert. (2012) 0.01
    0.0071646073 = product of:
      0.02865843 = sum of:
        0.02865843 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
          0.02865843 = score(doc=1006,freq=30.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.23726434 = fieldWeight in 1006, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1006)
      0.25 = coord(1/4)
    
    Content
    "Ganze "230 Adressen im World Wide Web, 250 Server und 100 per E-Mail zugängliche Informationsquellen". So stand es 1995 in der "Updated Internet Services List". Die manuell zusammengetragene Adressliste, nach ihrem Urheber auch als "Yanoff-Liste" bekannt, war einer der ersten Versuche, die anschwellende Informationsflut des Internet zu kanalisieren. Aus einem dieser Verzeichnisse, das zunächst von Studenten zusammengetragen wurde, entstand kurze Zeit später mit Yahoo die Mutter aller Suchmaschinen. Die englische Wortkombination "Search Engine" ist allerdings irreführend. Denn dahinter steckt in Wahrheit eine Software, die automatisch einen Index der Internetinhalte erstellt. Denn der Fleiß einer Handvoll Studenten reichte schon bald nicht mehr aus, das sich explosionsartig ausbreitende Web auch nur ansatzweise zu erfassen.
    Keine ernsthafte Konkurrenz Damit ist die Geschichte der Suchmaschinen weitestgehend erzählt - außer, dass Yahoo praktisch keine Rolle mehr spielt. Um das Gesuchte in den Weiten des Netzes zu finden, benutzt man heute Google. Mehr als 90 Prozent aller Suchanfragen in Deutschland laufen Schätzungen zufolge über die Rechenzentren des US-Konzerns. Ernsthafte Konkurrenten? Keine. Einst erfolgreiche Dienste wie Excite, Infoseek, AltaVista oder Lycos sind längst von der Bildfläche verschwunden. Liefert nicht Google zu allen erdenklichen Suchbegriffen zigtausend Ergebnisse? Mehr, so die allgemeine Auffassung, kann sowieso kein Mensch verarbeiten. Dahinter steht der naive Glaube, Google bilde die digitale Welt in ihrer Gesamtheit ab. Oder, schlimmer noch, gar die reale Welt. Dabei könnte nichts weiter von der Realität entfernt sein, wie Dr. Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Leibniz-Universität Hannover erklärt. Denn Google entscheidet, nach welchen Kriterien die digitale Welt durchkämmt wird. Google legt fest, welche Webseiten unter den ersten zehn Ergebnissen zu einer Suche angezeigt werden. Da die Mehrheit der Nutzer ohnehin nur diese wahrnimmt, bestimmt ein einzelnes Unternehmen, welchen Ausschnitt der Wirklichkeit die Menschheit zu sehen bekommt. Und die Algorithmen, nach denen die Suchmaschine funktioniert, hält der Konzern streng unter Verschluss: "Google entscheidet, welches Wissen wahrgenommen wird, und welches nicht; was im Internet existiert und was nicht." Die Macht, die dem Konzern damit zukomme, reiche weit über die Kontrolle des Wissenszugangs durch Suchmaschinen hinaus. "Was wir hier beobachten, ist eine Monokultur mit gravierenden Folgen für die Informations- und Wissenskultur", warnt der Wissenschaftler, der deshalb bereits vor Jahren "SuMa e.V.", einen "Verein für freien Wissenszugang", gegründet hat. Er setzt sich dafür ein, "globale Online-Oligopole besser zu kontrollieren". Um den freien Zugang zu dem im Internet gespeicherten Wissen für möglichst viele Menschen zu ermöglichen, sei es außerdem "von entscheidender Bedeutung, die dahinterstehende Technologie zu entwickeln und zu fördern - auch und gerade in Deutschland." Doch genau das wurde in den vergangenen zehn Jahren versäumt.
    Die Grundlage für das heutige Monopol wurde Ende der 90er-Jahre geschaffen. Damals hatten die beiden Google-Gründer Larry Page und Sergei Brin das Glück, zum richtigen Zeitpunkt mit der besten Technik aufwarten zu können. Kurz darauf führte die so genannte Dotcom-Krise zum Versiegen der Geldquellen und leitete den Niedergang der Mitbewerber ein. Ausgestattet mit frischem Geld und einer überlegenen Technologie nutze das Unternehmen die Gunst der Stunde und wuchs zu einem mittlerweile rund 25000 Mitarbeiter zählenden Konzern heran. Seitdem muss man sich in Mountain View nicht mehr großartig mit Kritik auseinandersetzen. Vom kalifornischen Hauptsitz aus wird praktisch im Alleingang über die Zukunft des Internet entschieden. So werden dem Nutzer mittlerweile personalisierte Ergebnisse angezeigt, die auf dessen bisherigen Suchanfragen beruhen. "Sie freuen sich vielleicht, dass bei dem für Sie wichtigen Suchwort ihre Homepage ganz vorn bei Google erscheint, worauf Sie Google ganz besonders toll finden", erklärt Sander-Beuermann. "Tatsächlich liegt das daran, dass Sie Ihre Homepage selber angeklickt haben. Ihr Nachbar kann völlig andere Ergebnisse erhalten." Wie diese Informationsbewertung genau funktioniere, gehöre allerdings zum Betriebsgeheimnis. Ebenso wie eine Fülle weiterer Faktoren, die eine Rolle bei der Auswahl der angezeigten Suchergebnisse spiele. So fließt auch die jeweilige geografische Position in die Zusammenstellung und Reihenfolge der angezeigten Links ein.
    Neue Entwicklungen im Netz Doch es gibt durchaus Ansätze, dem Goliath Google die Stirn zu bieten. Zu den Davids, die das versuchen, gehört Michael Schöbel. Seit 1999 betreibt er die deutsche Suchmaschine Acoon - als Gründer, Geschäftsführer und einziger Angestellter. Schöbel gibt sich jedoch keinen besonderen Illusionen hin. "Allein vom Datenumfang her kann ich mit den von Google erfassten 50 Milliarden erfassten Webseiten natürlich nicht konkurrieren." Die Erfassung koste eine Menge Geld, ebenso wie die Server, die man zum Speichern solcher Datenbestände bereitstellen müsste. Dennoch hält es der Einzelkämpfer für wichtig, "dem rein amerikanischen Blick auf die Welt eine eigene Sichtweise entgegenzusetzen." Weil Acoon auf einen vollkommen eigenständigen Suchindex setze, erhalte der Nutzer Suchergebnisse, "die gut sind, ohne dabei dem Einheitsbrei zu entsprechen." Hoffnung macht Google-Kritikern derzeit aber vor allem eine Firma, die bislang nicht unbedingt im Verdacht konterrevolutionärer Aktivitäten stand: Microsoft. Dessen Suchmaschine Bing konnte Google bereits einige Marktanteile gewinnen - freilich nicht, ohne zuvor selbst eine Reihe kleinerer Anbieter geschluckt zu haben. Auch das einst so einflussreiche Webverzeichnis Yahoo! bezieht seine Ergebnisse mittlerweile aus dem Bing-Index.
    Und natürlich schlägt Microsoft in die gleiche Kerbe wie Google. Denn auch die Bing-Suche steht ganz im Zeichen der "Individualisierung" der Ergebnisse. "Social Search" nennt sich die (noch) optionale Möglichkeit, Facebook-Einträge von Freunden als Suchkriterien zu verwenden. Schließlich, so die Meinung des Konzerns, beeinflusse der "Freunde-Effekt" die Entscheidung von Menschen in der Regel mehr als andere Faktoren. Die Entwicklung zeigt eindrucksvoll, wie schnell sich die beiden letzten Großen im Suchmaschinen-Geschäft neue Entwicklungen im Netz aneignen. Im Web 2.0 bildeten Blogs und Soziale Netzwerke bislang gewissermaßen ein demokratisches Gegengewicht zum Meinungsmonopol. Doch auch hier ist der Internet-Goliath bereits am Start. Wer sich schon immer mal gefragt hat, warum der Such-Gigant praktisch monatlich mit neuen Angeboten wie etwa Google+ aufwartet, findet hier eine Antwort. Mit dem kostenlosen Smartphone-Betriebssystem Android sicherte man sich eine gewichtige Position auf dem expandieren Markt für mobile Plattformen. Trotz ihrer momentanen Allmacht erkennen die Konzernlenker also durchaus die Gefahr, irgendwann einmal selbst vom Zug der Zeit überrollt zu werden. Für die meisten Konkurrenten kommt diese Einsicht zu spät."

Authors

Languages

  • e 32
  • m 3

Types

  • a 8484
  • m 1864
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications