Search (4749 results, page 193 of 238)

  • × year_i:[2000 TO 2010}
  1. Springer, M.: Was hier steht, ist nicht wahr (2006) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 309) [ClassicSimilarity], result of:
          0.03132389 = score(doc=309,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 309, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=309)
      0.25 = coord(1/4)
    
    Content
    "Was halten Sie von diesem Satz, der von sich aussagt, dass er falsch sei? Wenn er, wie behauptet, nicht wahr ist, stimmt nicht, was er aussagt, und das bedeutet, dass er wahr ist - im Widerspruch zu dem, was er behauptet. Als Urform solcher sich selbst torpedierenden Aussagen gilt die Paradoxie des kretischen Priesters Epimenides, der alle Kreter als Lügner bezeichnete. Auch dies führt zu einer Antinomie: einem unauflöslichen Selbstwiderspruch. Vor hundert Jahren, am 28. April 1906, wurde im heutigen Tschechien, damals Teil der österreichischen Monarchie, Kurt Gödel geboren, den die Fachwelt zu diesem Jubiläum als den größten Logiker seit Aristoteles feiert. Sein Ruhm beruht im Wesentlichen auf einem einzigen Theorem, dem Gödel'schen Unvollständigkeitssatz, der auf raffinierte Weise die Antinomie des Lügners nutzt. Damit zeigte Gödel 1931, dass die damalige Erwartung, die gesamte Mathematik lasse sich nach dem Vorbild der Euklidischen Geometrie aus einigen Axiomen und Ableitungsregeln entwickeln, trügerisch war. In jedem formalen System, das es erlaubt, die Theoreme der Arithmetik herzuleiten, können systemsprengende Sätze von der Art des Lügnerparadoxons konstruiert werden, die sich weder beweisen noch widerlegen lassen. Gödel selbst sah in seiner - für die Zeitgenossen völlig überraschenden - Entdeckung nichts Negatives, obwohl sie die Hoffnung, die Mathematik könne letztlich komplett auf Logik zurückgeführt werden, gründlich zerstörte. Hätte jene Hoffnung sich bewahrheitet, so gäbe es zumindest theoretisch ein Computerprogramm, das automatisch sämtliche Sätze der Mathematik zu produzieren vermöchte. Gödel hingegen meinte als überzeugter Anhänger der Platon'schen Ideenlehre, die Tätigkeit der Mathematiker gleiche der Entdeckungsreise in eine unbekannte Welt geistiger Objekte und nicht der freien Erfindung von Spielregeln, Formalismen und Rechenprogrammen. Dafür schien ihm sein Unvollständigkeitssatz ein klares Indiz (siehe »Kurt Gödel«, Spektrum-Biografie 1/2002). Wie groß der denkerische Ehrgeiz des großen Logikers war, offenbaren erst Gödels postum edierte Notizen. Schon der Halbwüchsige betitelte ein Schulheft mit »Fehler der Bibel« - nicht einmal das Buch der Bücher war vor seinem kritischen Misstrauen sicher. In reifen Jahren arbeitete er an einem Beweis für die Existenz Gottes auf rein logischer Basis - nach dem Vorbild des mittelalterlichen Scholastikers Anselm von Canterbury. Gödels ontologischer Gottesbeweis geht kurz gesagt so: Gott ist nur denkbar als Wesen, das alle positiven Eigenschaften in sich vereint, und da Existenz eine solche positive Eigenschaft ist, muss Gott existieren. Was zu beweisen war. In gewisser Weise erscheint mir dieses Argument als logische Umkehrung der Antinomie des Lügners. Der Satz »Ich bin falsch« sprengt die Konsistenz des Systems, in dem er formuliert wird; die Behauptung »Ich bin wahr« macht das Gegenteil: Eigenmächtig, kühn und herausfordernd stellt sie sich selbst im logischen Raum auf. Um dieser Behauptung blindlings zu vertrauen, ja sie als Selbstaussage des höchsten Wesens zu verstehen - etwa im Sinne des Jesu-Worts »Ich bin die Wahrheit und das Leben« -, dazu muss man freilich wie Gödel bedingungslos an die reale Existenz logisch-mathematischer Objekte glauben."
  2. Summann, F.; Wolf, S.: Suchmaschinentechnologie und wissenschaftliche Suchumgebung : Warum braucht man eine wissenschaftliche Suchmaschine? (2006) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 958) [ClassicSimilarity], result of:
          0.03132389 = score(doc=958,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 958, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=958)
      0.25 = coord(1/4)
    
    Abstract
    Bereits seit längerem ist bekannt, dass Studierende und Wissenschaftler zur Informationsrecherche Internet-Suchmaschinen bevorzugen [Klatt 2001]. Wissenschaftlich relevante Internet-Seiten gehen aber in der Vielzahl der von Google, Yahoo & Co erfassten Seiten unter. In den riesigen Treffermengen allgemeiner Suchmaschinen sind wissenschaftliche Quellen über die umfangreichen Ergebnisseiten verstreut und zudem in der Trefferanzeige nur schwer als solche zu identifizieren. Internet-Suchmaschinen indexieren nur frei zugängliche Internet-Seiten (das sogenannte "Visible Web"). Inhalte aus wissenschaftlich relevanten Fach-, Volltext- und Verbunddatenbanken (das "Invisible Web"), werden bisher nicht erfasst oder zumindest nicht in den allgemeinen Index der Suchmaschinen integriert. Aber auch ein Teil des sichtbaren Webs bleibt für die Suchmaschinen unsichtbar. OAI-Server, die eigentlich zum "Visible Web" gehören, werden - wenn überhaupt - häufig nur unvollständig indexiert, was allerdings auch an der oftmals wenig suchmaschinenfreundlichen Aufbereitung der Inhalte auf diesen Servern liegt. Die gängigen Windows-Office-Dateiformate werden zwar von den allgemeinen Suchmaschinen inzwischen recht zuverlässig indexiert, eine Reihe von in Forschung und Lehre verwendeten Datenformate werden aber bisher von Internet-Suchmaschinen nicht berücksichtigt (z.B. LaTex, OpenOffice). Unabhängig vom Dateiformat gibt es eine Grenze bei der Indexierung besonders großer Dateien. Dateien werden nur bis zu einer Größe von etwa 800 KB vollständig indexiert. Alle Inhalte, die in einer Datei über diesem Limit liegen, werden nicht mehr indexiert, was sich bei umfangreichen Volltexten negativ bemerkbar macht. Um alle relevanten Informationen zu einem Thema zusammentragen zu können, müssen Informationsrecherchen daher sowohl in Suchmaschinen als auch in Fachdatenbanken durchgeführt werden. Recherchen in den Datenbanken des "Invisible Web" erbringen zwar hochwertige Ergebnisse, dauern oft aber vergleichsweise lange. Die Antwortzeiten von Metasuchumgebungen, die ihre Suchanfragen über das Z39.50-Protokoll oder per HTTP an eine Vielzahl von Zieldatenbanken weiterreichen und anschließend die Ergebnisse zusammenführen, sind um ein Vielfaches höher als die der Internet-Suchmaschinen. Häufig ist auch die Hardwareausstattung der Zielserver nicht ausreichend oder die Lizenzverträge der Herstellerfirmen lassen nur eine begrenzte Anzahl gleichzeitiger User zu. Die Bielefeld Academic Search Engine (BASE) vereinigt die Vorteile von Suchmaschinen (einfache Nutzung, schnelle Antwortzeiten, Relevanzbewertung) und Datenbanken (Berücksichtigung bibliographischer Suchaspekte, hohe Qualität der Quellen).
  3. Huberman, B.: ¬The laws of the Web: : patterns in the ecology of information (2001) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 123) [ClassicSimilarity], result of:
          0.03132389 = score(doc=123,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 123, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=123)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: nfd 54(2003) H.8, S.497 (T. Mandl): "Gesetze der digitalen Anarchie - Hyperlinks im Internet entstehen als Ergebnis sozialer Prozesse und können auch als formaler Graph im Sinne der Mathematik interpretiert werden. Die Thematik Hyperlinks ist im Information Retrieval höchst aktuell, da Suchmaschinen die Link-Struktur bei der Berechnung ihrer Ergebnisse berücksichtigen. Algorithmen zur Bestimmung des "guten Rufs" einer Seite wie etwa PageRank von Google gewichten eine Seite höher, wenn viele links auf sie verweisen. Zu den neuesten Erkenntnissen über die Netzwerkstruktur des Internets liegen zwei sehr gut lesbare Bücher vor. Der Autor des ersten Buchs, der Wirtschaftswissenschaftler Huberman, ist Leiter einer Forschungsabteilung bei Hewlett Packard. Huberman beschreibt in seinem Buch zunächst die Geschichte des Internet als technologische Revolution und gelangt dann schnell zu dessen Evolution und den darin vorherrschenden Wahrscheinlichkeitsverteilungen. Oberraschenderweise treten im Internet häufig power-law Wahrscheinlichkeitsverteilungen auf, die der Zipf'schen Verteilung ähneln. Auf diese sehr ungleichen Aufteilungen etwa von eingehenden HypertextLinks oder Surfern pro Seite im Internet bezieht sich der Titel des Buchs. Diese immer wieder auftretenden Wahrscheinlichkeitsverteilungen scheinen geradezu ein Gesetz des Internet zu bilden. So gibt es z.B. viele Sites mit sehr wenigen Seiten und einige wenige mit Millionen von Seiten, manche Seiten werden selten besucht und andere ziehen einen Großteil des Internet-Verkehrs auf sich, auf die meisten Seiten verweisen sehr wenige Links während auf einige wenige populäre Seiten Millionen von Links zielen. Das vorletzte Kapitel widmen übrigens beide Autoren den Märkten im Internet. Spätestens hier werden die wirtschaftlichen Aspekte von Netzwerken deutlich. Beide Titel führen den Leser in die neue Forschung zur Struktur des Internet als Netzwerk und sind leicht lesbar. Beides sind wissenschaftliche Bücher, wenden sich aber auch an den interessierten Laien. Das Buch von Barabási ist etwas aktueller, plauderhafter, länger, umfassender und etwas populärwissenschaftlicher."
  4. Boelen-Theile, C.: Er ist der Chef vom "Web ohne Grenzen" : Klaus U. Walth aus Frankenforst engagiert sich für ein barrierefreies Internet - Viele Kontakte (2006) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 179) [ClassicSimilarity], result of:
          0.03132389 = score(doc=179,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 179, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=179)
      0.25 = coord(1/4)
    
    Content
    "Wenn Klaus-U. Walth von barrierefreiem Internet spricht, stößt er häufig auf Unverständnis und Kopfschütteln. Wo sollen denn diese Barrieren sein? Einmal klicken, und das Internet "läuft"- so die landläufige Meinung. "Für Menschen mit Behinderungen gibt es tatsächlich viele Hürden im Internet", sagt Walth. "Das beginnt mit einer viel zu kleinen Schrift, die sich nicht vergrößern lässt." "Web ohne Grenzen e.V." heißt das ehrgeizige Projekt, mit dem Walth das Internet jetzt für alle Menschen öffnen will. 16 Mitglieder gibt es derzeit, darunter einige Fachgremien. Deutschlandweit will Web ohne Grenzen agieren. "Es werden mehr werden, denn barrierefreies Internet ist ein gesellschaftliches Anliegen." Das Büro des Marketing-Experten liegt unscheinbar im Frankenforster Gewerbegebiet, von hier hält er Kontakte zu seinen Mitstreitern in ganz Deutschland. Wir sind erst ganz am Anfang unserer Aufgabe", sagt der Vereinspräsident. "Schauen Sie hier", und Walth, klickt die Homepage der Kreissparkasse Köln an. Schnell hat er die Schrift um das Doppelte vergrößert und eine Schwarz-Weiß-Version der Seite auf seinem Bildschirm. "Klare Strukturen, die für eine gute Orientierung sorgen, lobt er. Bei einem großangelegten Test von acht Online-Bankenportalen habe die Kreissparkasse als eine von zwei Großbanken die Note "Gut" erhalten (mit der Commerzbank). Zweimal habe "Web ohne Grenzen" mangelhaft vergeben müssen. Vielen Bankern war diese Problematik gar nicht bewusst", sagt Walth. Denn für Farbenblinde ist Rot nicht gleich Rot und Blau nicht Blau. Im ungünstigsten Fall könnten die Inhalte der Seite nicht mehr erkannt werden: Der Kontrast auf der Website verschwimmt, eine Navigation ist nicht mehr möglich. "Deshalb ist eine Version in Scharzweiß notwendig", erklärt er. Bei der Kreissparkasse, deren Internet-Auftritt von der Gladbacher Oevermann Networks GmbH betreut wird, verzichte man auf unnötigen Schnickschnack wie blinkende Symbole und dergleichen. "Die Seiten müssen übersichtlich strukturiert seid, deutet Walth auf den Monitor. Dass nur zwei Banken gut abschnitten, zeige die Dimension des Problems. Leider sind die meisten Webdesigner für barrierefreie Internet-Seiten zu wenig sensibilisiert.« Generell werde zu wenig darauf geachtet, dass ein Surfen auf den Seiten auch ohne Maus möglich sein müsse. Für motorisch eingeschränkte Menschen sei dies eines der wichtigsten Voraussetzungen. Statt "schöner Seiten zu gestalten, müsse das Ziel "schöne und barrierefreie Seiten" sein. ,Das Bewusstsein wird sich ändern, hofft der Chef von Web ohne Grenzen. Das Jahr 2008 markiere dafür einen wichtigen Termin: Bis dahin müssen alle Kommunen ihre Seiten barrierefrei eingerichtet haben. Wir setzen auf den Gesetzgeber", hofft Waith auf einen Schub für seine Idee. Im Gegensatz zu Deutschland sei die USA bei diesem Thema schon weiter. Dort ist das barrierefreie Internet ein einklagbares Recht."
  5. Behrends, E.: Fünf Minuten Mathematik : 100 Beiträge der Mathematik-Kolumne der Zeitung DIE WELT (2006) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 596) [ClassicSimilarity], result of:
          0.03132389 = score(doc=596,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 596, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=596)
      0.25 = coord(1/4)
    
    Abstract
    100 mal fünf abwechslungsreiche Minuten über Mathematik: von der Reiskornparabel über Lotto bis zur Zahlenzauberei, von Mathematik und Musik, Paradoxien, Unendlichkeit, Mathematik und Zufall, dem Poincaré-Problem und Optionsgeschäften bis zu Quantencomputern, und vielem mehr. In einem breiten Spektrum erfährt der Leser: Mathematik ist nützlich, Mathematik ist faszinierend, ohne Mathematik kann die Welt nicht verstanden werden. Das Buch enthält einen Querschnitt durch die moderne und alltägliche Mathematik. Die 100 Beiträge sind aus der Kolumne "Fünf Minuten Mathematik" hervorgegangen, in der verschiedene mathematische Gebiete in einer für Laien verständlichen Sprache behandelt wurden. Diese Beiträge wurden für das Buch überarbeitet, stark erweitert und mit Illustrationen versehen. Der Leser findet hier den mathematischen Hintergrund und viele attraktive Fotos zur Veranschaulichung der Mathematik.
  6. Korves, J.: Seiten bewerten : Googles PageRank (2005) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 991) [ClassicSimilarity], result of:
          0.03132389 = score(doc=991,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 991, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=991)
      0.25 = coord(1/4)
    
    Abstract
    Mit der Entstehung des World Wide Web im Jahre 1989 und dem darauf folgenden rasanten Anstieg der Zahl an Webseiten, kam es sehr schnell zu der Notwendigkeit, eine gewisse Ordnung in die Vielzahl von Inhalten zu bringen. So wurde schon im Jahre 1991 ein erster Vorläufer der heutigen Websuchmaschinen namens Gopher entwickelt. Die Struktur von Gopher, bei der zunächst alle Webseiten katalogisiert wurden, um anschließend komplett durchsucht werden zu können, war damals richtungweisend und wird auch heute noch in den meisten anderen Websuchmaschinen verwendet. Von damals bis heute hat sich sehr viel am Markt der Suchmaschinen verändert. Seit dem Jahre 2004 gibt es nur mehr drei große Websuchmaschinen, bezogen auf die Anzahl erfasster Dokumente. Neben Yahoo! Search und Microsofts MSN Search ist Google die bisher erfolgreichste Suchmaschine der Welt. Dargestellt werden die Suchergebnisse, indem sie der Relevanz nach sortiert werden. Jede Suchmaschine hat ihre eigenen geheimen Kriterien, welche für die Bewertung der Relevanz herangezogen werden. Googles Suchergebnisse werden aus einer Kombination zweier Verfahren angeordnet. Neben der Hypertext-Matching-Analyse ist dies die PageRank-Technologie. Der so genannte PageRank-Algorithmus, benannt nach seinem Erfinder Lawrence Page, ist die wesentliche Komponente, die Google auf seinen Erfolgsweg gebracht hat. Über die genaue Funktionsweise dieses Algorithmus hat Google, insbesondere nach einigen Verbesserungen in den letzten Jahren, nicht alle Details preisgegeben. Fest steht jedoch, dass der PageRank-Algorithmus die Relevanz einer Webseite auf Basis der Hyperlinkstruktur des Webs berechnet, wobei die Relevanz einer Webseite danach gewichtet wird, wie viele Links auf sie zeigen und Verweise von ihrerseits stark verlinkten Seiten stärker ins Gewicht fallen.
    Diese Seminararbeit widmet sich der Darstellung des PageRank-Algorithmus sowie der Erläuterung von Verbesserungen, durch die der Algorithmus schneller und effizienter wird. Hierzu werden dem Leser in Kapitel 2 zunächst einige Grundlagen nahe gebracht. Anschließend wird im Hauptteil dieser Ausarbeitung in Kapitel 3 detailliert auf den PageRank-Algorithmus sowie auf drei Weiterentwicklungen eingegangen, welche die Verarbeitungseffizienz des Grundalgorithmus so erhöhen, dass dadurch ein themenspezifisches Ranking ermöglicht werden könnte. Abschließend werden die Ergebnisse in Kapitel 4 zusammengefasst und ein Ausblick auf die Zukunft gegeben.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanKorves.pdf
  7. Daconta, M.C.; Oberst, L.J.; Smith, K.T.: ¬The Semantic Web : A guide to the future of XML, Web services and knowledge management (2003) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 1320) [ClassicSimilarity], result of:
          0.03132389 = score(doc=1320,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 1320, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1320)
      0.25 = coord(1/4)
    
    BK
    85.20 Betriebliche Information und Kommunikation
    Classification
    85.20 Betriebliche Information und Kommunikation
    Footnote
    Rez. Amazon: "Die Autoren bezeichnen das Buch im Vorwort als strategischen Führer für Führungskräfte und Entwickler die sich einen Überblick über das Semantic Web und die dahinter stehende Vision machen wollen. Genau diesem Anspruch wird das Buch auch absolut gerecht. Die ersten beiden Kapitel beschreiben die Vision sowie die Möglichkeiten, die sich durch den Einsatz der in den nachfolgenden Kapiteln beschriebenen Techniken bieten. Die Autoren schaffen es anhand vieler praktischer Szenarien (die zwar teilweise meiner Einschätzung nach schon noch in einiger Zukunft liegen, aber die große Vision des ganzen schön vergegenwärtigen) sehr schnell den Leser für die Technik zu begeistern und mehr darüber wissen zu wollen. Die nachfolgenden Kapitel beschreiben die Techniken auf den verschiedenen semantischen Ebenen von XML als Basis für alles weitere, über Web Services, RDF, Taxonomies und Ontologies. Den Autoren gelingt es die beschriebenen Techniken so kurz und prägnant zu erklären, dass sich der Leser danach zumindest ein Bild über die Techniken an sich, sowie über deren komplexes Zusammenspiel machen kann. Auch für Entwickler würde ich das Buch empfehlen, da es einen sehr guten Einstieg in viele doch sehr neue Techniken bietet mit vielen Verweisen auf weitere Literatur. Alles in allem ein sehr gelungenes Buch, das es trotz relativ geringem Umfangs schafft, einen guten Überblick über dieses komplexe Thema zu vermitteln."
  8. Hentschel, A.: Was Google & Co. wirklich finden (2007) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 1488) [ClassicSimilarity], result of:
          0.03132389 = score(doc=1488,freq=56.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 1488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1488)
      0.25 = coord(1/4)
    
    Content
    "Das Internet wächst und wächst: Im Juni wurde es laut einer Erhebung des englischen Branchendienstes Netcraft aus 122 Millionen Webservern gebildet - im Vergleich zum Vormonat ein Plus von vier Millionen. Wahre Größe zeigt das Web aber erst bei der Anzahl der einzelnen Webseiten: Es sind schätzungsweise 500 Milliarden! Ohne eine gute Suchmaschine geht da nichts, zumal sich die Inhalte ständig ändern: Blogs und Videoportale haben aus dem statischen Web ein dynamisches Medium gemacht, das die Suchtechnologien vor neue Hürden stellt. Die Webindizes müssen immer mehr und sich immer schneller verändernde Dokumenttypen analysieren. Und das sollten die Suchmaschinen zuverlässig tun, denn die Suche ist die wichtigste Anwendung im Internet: 80 Prozent aller deutschen Websurfer recherchieren in Suchmaschinen, statt direkt eine URL in das Browser-Fenster einzutippen. Bei der Wahl der Suchmaschine obsiegt offenbar die Macht der Gewohnheit: Die absolute Mehrheit der Deutschen sucht mit Google - 87 Prozent. Yahoo und Microsofts Live Search (ehemals MSN) bringen es auf mickrige drei Prozent Marktanteil, AOL und T-Online auf jeweils zwei Prozent.
    Wir wollten wissen, ob das scheinbar unerschütterliche Vertrauen in Google gerechtfertigt ist und haben fünf Suchmaschinen gegen Google antreten lassen: Neben Google befinden sich die beiden weiteren Großen Yahoo und Microsoft Live Search im Testfeld, sowie die Websuchen von Ask.com, Abacho und Seekport. Nicht dabei sind Portale wie T-Online oder AOL. Auch wenn diese für viele Nutzer das Einfallstor ins Internet sind: Sie nutzen keine eigenen Suchtechnologien, sondern bedienen sich bei Google oder Yahoo - die Testergebnisse wären hier also identisch gewesen. Soviel vorneweg: Google ist zu recht Marktführer. Denn kein Testkandidat lieferte durchgängig eine so hohe Trefferqualität. Das heißt allerdings nicht, dass die Konkurrenz so schlecht ist, wie es die nackten Marktzahlen vermuten ließen. Bei der Video- oder News-Suche beispielsweise ist Ask.com besser als Google. Eine komplette Enttäuschung ist Microsofts Live Search, die bei der Qualität der Suchergebnisse selbst vom kleinen Anbieter Abacho geschlagen wurde. Für den Test fütterten wir jede Suchmaschine mit insgesamt 25 Suchbegriffen. Je zehnmal stellten wir allgemeine Suchanfragen, je fünfmal suchten wir nach News, Bildern und Videos. Bei allgemeinen Fragen ist Google unschlagbar. Nur ein paar Beispiele: Sie suchen nach "Wetter in Merching" und bekommen oberhalb der Trefferliste die Wettervorhersage angezeigt - selbst für ein kleines Dorf. "Zugverbindung Hamburg München" führt Sie mit einem Klick zur Übersicht mit den nächsten Zügen. Der Wunsch nach "Download Firmware Plextor PX716" wird mit dem direkten Link zur Plextor-Webseite belohnt. "15,66 Dollar in Euro" zeigt direkt den aktuellen Umrechnungskurs an.
    Wie hat uns dagegen die Konkurrenz in die Irre geschickt: Statt Wetter in Merching bekamen wir die Seite der freiwilligen Feuerwehr (Ask.com), statt einer Zugverbindung das Angebot, einen Flug zu buchen (Seekport), statt Firmware Spam, statt Umrechnungskursen Börsennachrichten. Ein wenig schwächelte Google bei zwei Begriffen: "Aktienkurs Telekom" und "Strompreis Übersicht". Hier zeigte Yahoo bessere Ergebnisse - beispielsweise gleich oberhalb der Trefferliste einen Kurs-Chart für die T-Aktie. Für eine wichtige Frage blieben uns alle Suchmaschinen die Antwort schuldig: "Wie heißt der Soldat bei Biene Maja?" Auch bei der Bildersuche überzeugte Google auf der ganzen Linie - zu jedem unserer fünf Begriffe fanden wir genügend gute Treffer. Alle anderen leisteten sich dagegen Ausrutscher: So findet Ask Apples "iPhone" und das CD-Cover des Wir-sind-Helden-Albums "Soundso" nicht. Abacho, Yahoo und Live Search können mit Gilbert & Georges Kunstwerk "Are You Angry Or Are You Boring" nichts anfangen. Bei Seekport konnten wir uns die Mühe sparen - es gibt keine Bildersuche. Videos werden von Seekport ebenfalls ignoriert. Auch bei Abacho fehlt diese Spezialsuche, allerdings hilft die ordinäre Websuche bisweilen: Die Anfrage "Stromberg Herr Loermann" führte uns beispielsweise zum Videoportal Maxdome mit Trailern und dem Stream der Comedy-Serie. Ask, Live Search und Google unterscheiden sich in der Videosuche nur marginal. Bei Google werden Treffer aus dem eigenen Videoportal YouTube offenbar bevorzugt behandelt, dafür gibt es leichten Punktabzug. Ansonsten schwankt die Qualität der Ergebnisse je nach Suchbegriff. Mit "White Stripes Icky Thump" fanden wir bei dem Trio zuverlässig zum neuen Video der amerikanischen Rockband. Auch der "Apple 1984 Superbowl" Werbespot war für die drei kein Problem, lediglich bei der Stromberg-Episode blieben die Ergebnislisten nahezu leer.
    Leere Listen sahen wir bei der Yahoo-Video-Suche hingegen entschieden zu oft - sie enttäuschte weitgehend. Mit seiner News-Suche überzeugte Yahoo schon eher und landete hier nur knapp hinter Google. Google selbst hat manchmal Probleme mit News-Übersichten und interpretiert Schlagzeilen-Übersichten als eigene Artikel. Das führt zu falschen Ergebnissen. Die besten News-Treffer landeten wir bei Ask.com, allerdings ist die Suche versteckt - in einem Reiter unter Blog-Suche. Einmal gefunden, bekommt man aber zuverlässig sehr viele relevante Nachrichten. Abacho hat keine eigene News-Suche, immerhin wird der Index aber so schnell aktualisiert, dass wir zu unseren News-Fragen "Saul Friedländer Friedenspreis" oder "Telekom Verdi" wenigstens ein paar verwertbare Webseiten fanden. Bei Live Search hingegen erhielten wir bei tagesaktuellen Suchbegriffen praktisch keine brauchbaren News. Jede Suche fördert Unmassen von Treffern zu Tage. Auf die relevanten Ergebnisse eingrenzen lassen sich diese nur mit Filtern oder gezielteren Suchanfragen. Allgemein verbreiteter Suchmaschinen-Standard sind die Boolschen Verknüpfungen mehrerer Suchbegriffe (und/oder/nicht). Die Begrenzung der Suche auf bestimmte Sprachen oder Zeiträume lassen auch die meisten Testkandidaten zu (siehe Testtabelle, S 76). Vermisst haben wir bei Live Search, Abacho und Seekport die Möglichkeit, nach verschiedenen Dokumenttypen zu suchen. Mit Google und Yahoo lässt sich die Suche auf Word-, Excel-Dateien oder PDFs beschränken - bei Ask immerhin auf diverse Videoformate. Ein sehr nettes Feature bieten bisher erstaunlicherweise nur die kleinen Suchmaschinen an: die Seitenvorschau. Ask, Abacho und Seekport blenden auf Maus-klick den Treffer direkt auf der Suchmaschinenseite ein - so kann man sich schnell einen Eindruck verschaffen, ob einem die gefundene Webseite weiterhilft. Besonders schön ist die Lösung von Ask: Die Vorschau wird hier als kleines Popup eingeblendet, sobald man mit der Maus über den Vorschau-Link fährt. Begeistern konnten wir uns auch für die Video-Vorschau von Ask, die als einzige Suchmaschine einige Sekunden des Clips anzeigt, wenn man mit der Maus auf das Vorschaubildchen geht.
    Im Web stößt man schnell auf dubiose Seiten. Gut, wenn die Suchmaschine schon in der Trefferliste Porno und Schadcode aussortiert. Am sichersten surfen Sie diesbezüglich mit Google. Sie werden beim Testsieger bereits in der Trefferliste vor Seiten gewarnt, die im Verdacht stehen, Malware zu verbreiten. Das bietet sonst keine andere Suchmaschine. Außerdem können Sie einen dreistufigen Filter setzen, der nicht jugendfreie Seiten aus den Trefferlisten entfernt - ein Service, den bis auf Live Search und Seekport aber auch alle anderen bieten. Kritikpunkt: Diese erweiterten Sicherheitsfunktionen lassen sich nur nutzen, wenn Sie Cookies akzeptieren - obwohl es technisch auch anders lösbar wäre. Dahinter steckt nur das Interesse an genauen Nutzerprofilen. Weil wir eher für einen sensiblen Umgang mit Daten plädieren, gibt es dafür leichte Punktabzüge. Suchmaschinen wie Google und Ask sind an Simplizität nicht mehr zu übertreffen. Außer dem Suchfeld und Reitern für Bilder-, News- oder Produktsuche bleibt die Seite leer. Kritisch sehen wir die Kennzeichnung der Werbung. Die meisten Suchmaschinen hinterlegen die verkauften Links dezent farbig. Aber bisweilen so dezent, dass es bei schlecht kalibrierten Monitoren nicht zu sehen ist. Seekport und Abacho machen es anders - aber nicht besser. Sie grenzen die Werbung durch grafische Elemente ab, die eher verschleiern als verdeutlichen, dass es sich um gesponserte Links handelt. Die Hilfe-Funktionen sind durchweg brauchbar, bis auf eine kleine Ausnahme: Live Search verspricht in seiner Hilfe Funktionen, die es noch gar nicht gibt - immerhin erlauben diese offenbar einen Blick in die weiteren Planungen. Abachos Hilfe ist eher minimalistisch - mehr als die Boolschen Filter werden nicht erklärt. Google und Yahoo hingegen haben umfangreiche Dokumentationen. Wer sich ausführlich damit beschäftigt, kann durchaus zu besseren Ergebnissen gelangen. Bei Yahoo beispielsweise fanden wir den Hilfe-Hinweis auf den Yahoo-Service "Answers", bei dem andere Nutzer offene Fragen beantworten. Wir fragten dort noch einmal nach dem Namen des Soldaten bei Biene Maja. Die Antwort kam innerhalb von drei Minuten: Er heißt Paul Emsig."
  9. Streit, A. von: Rechnersuche (2003) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 1497) [ClassicSimilarity], result of:
          0.03132389 = score(doc=1497,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 1497, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1497)
      0.25 = coord(1/4)
    
    Content
    "Die Matrix, das wissen wir inzwischen, bestimmt unser Leben. Schlimm ist das nicht, denn ein Dahintreiben zwischen programmierten Lebenswelten kann ja ganz angenehm sein. Anders gesagt: Was sollten wir eigentlich ohne das Internet machen? Etwa unseren Lesestoff künftig wieder beim Buchhändler kaufen, ausrangierten Wohlstandsmüll auf Flohmärkten verkaufen und in Kneipen statt in Chaträumen nach potenziellen Lebenspartnern suchen? Alles hat seine Grenzen. Vor allem aber würde einleben ohne das Netz der Netze bedeuten: Wir müssten ohne Google auskommen. Dabei ist alles doch schon so schön programmiert. Google hilft uns, Dinge zu finden, von denen wir niemals etwas erfahren hätten: schlimme Fotos, versteckte Web-Seiten, Informationen, Freunde, Bombenbauanleitungen und inzwischen auch nach berechneter Wichtigkeit sortierte Medien-Nachrichten. Solange wir online sind, wartet das Google-Eingabefeld auf uns, verspricht Rettung in der Orientierungslosigkeit: "Google bringt Ordnung ins Web" zum Beispiel, "Google ermöglicht die Suche nach mehr als einer Milliarde URLs" und natürlich: "Google kann Sie glücklich machen!" Keine Sekte könnte das besser formulieren. Und während sich der Papst immer noch nicht für einen der möglichen Schutzheiligen des Internets entscheiden kann, macht sich die schmucklose Suchmaschinen-Software langsam aber sicher daran, seine glücksbringenden Algorithmen in immer mehr Bereiche unseres. Lebens zu verlinken. Denn Google kann. seit Neuestem, auch rechnen. Natürlich nicht wie ein ordinärer Taschenrechner, wer kann denn so etwas überhaupt noch bedienen? Stattdessen: 1 + 1 in die Eingabezeile geschrieben, Suchtaste gedrückt, und schon wirft Google das Ergebnis aus. Andere lassen sich Sinus, Tangens, Kosinus oder Potenzen berechnen, indem sie Sachen wie "8*0,6+2^5 tan2877" eingeben (was im Mathe-Unter-richt natürlich nach wie vor "(8 x 0,6) + ((25) tan(2 877))" geschrieben werden muss und -22,0915108 zum Ergebnis hat). Maßeinheiten-Fetischisten wandeln lieber Fuß in Meter um - und bekommen zur unschuldigen Anfrage "1 feet in meters" neben dem Ergebnis gleich noch 755 000 Webseiten angeboten. Was sollten wir nur ohne Google machen?"
  10. Wiesenmüller, H.: Schlagwortketten in Online-Katalogen : Realität und Potenzial (2008) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 3410) [ClassicSimilarity], result of:
          0.03132389 = score(doc=3410,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 3410, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3410)
      0.25 = coord(1/4)
    
    Abstract
    Das Prinzip, zur Wiedergabe eines komplexen Gegenstands mehrere Schlagwörter in Form einer Schlagwortkette zu verknüpfen, gehört zum zentralen Kern der 'Regeln für den Schlagwortkatalog' (RSWK). Während die Bildung solcher Schlagwortketten - also der Input - umfassend geregelt ist, verzichtet das Regelwerk jedoch darauf, auch für den Output nähere Vorgaben zu machen: "Die Gestaltung des Retrievals von Schlagwörtern und ihrer Anzeige im Online-Katalog" sei "Aufgabe des jeweiligen OPACs", weshalb man sich auf "einzelne Hinweise" beschränke (§ 20,1). Explizit genannt werden immerhin die "Suche nach Schlagwortketten" und das Browsing im Schlagwortkettenindex (5 20,5). Freilich ist seit langem bekannt, dass Schlagwortketten in vielen OPACs recht 'stiefmütterlich' behandelt werden. Eine aussagekräftige Bestandsaufnahme über die tatsächliche Nutzung der Schlagwortketten in aktuellen OPACs fehlte jedoch. Eine solche hat die Verfasserin im Februar 2008 unternommen. Den Hintergrund dafür bildeten die Überlegungen der vom Standardisierungsausschuss eingesetzten Ad-hoc-Arbeitsgruppe "Strategie der Sacherschließung" unter dem Vorsitz von Dr. Friedrich Geißelmann (UB Regensburg). In diesem Rahmen wurde auch über Wege diskutiert, um das große Potenzial der Schlagwortketten besser für das Retrieval nutzbar zu machen. Für die Untersuchung wurden - ohne Anspruch auf Vollständigkeit - 40 Online-Kataloge mit Schlagwortkettenfunktionalitäten analysiert. Zehn unterschiedliche Katalogsysteme waren dabei vertreten: Aleph, Allegro, Biber, Bond, Horizon, Libero, PICA, SISIS-Sunrise, Urica und Virtua. Eine Liste der betrachteten OPACs inkl. ihrer URLs und der im Folgenden verwendeten Siglen ist im Anhang zu finden. Die Darstellung stellt zwangsläufig eine Momentaufnahme dar, denn die OPACs sind natürlich keine statischen Systeme: Schon bei Abfassung des vorliegenden Beitrags im Juli 2008 waren einige Änderungen einzuarbeiten, die sich seit Februar ergeben hatten; weitere Umgestaltungen der Kataloge sind nur eine Frage der Zeit. Desungeachtet gibt die Studie einen Überblick über derzeit implementierte Funktionalitäten sowie aktuelle Trends, und ermöglicht auch das Aufzeigen von Problemfeldern und Verbesserungsmöglichkeiten.
  11. Herwig, C.: Stöbern im Datennetz : Die richtige Seite im Internet findet nur, wer seine Suchanfrage klug formuliert (2003) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 3440) [ClassicSimilarity], result of:
          0.03132389 = score(doc=3440,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 3440, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3440)
      0.25 = coord(1/4)
    
    Content
    "Wer etwas sucht in den Weiten des Datennetzes und die genaue Adresse nicht kennt, der benutzt eine Suchmaschine. Ganz oben auf der Beliebtheitsskala steht dabei nach wie vor Google, für Deutschsprachige zu finden unter www.google.de. Gründe für die Popularität des zum Multi-MilliardenDollar-Unternehmen gewachsenen Studentenprojekts gibt es viele: Pragmatiker schwören einfach auf die guten Suchergebnisse, Freaks schätzen die "bells and whistles", das Drumherum, das die Suche komfortabel macht: - Für halbwegs Eindeutiges gelangt man kinderleicht ans Ziel: Die Suchbegriffe "Motor" und "Sport" fördern nur Dokumente zu Tage, die beide Stichworte enthalten. Ganz oben werden dabei die Seiten angezeigt, in denen beide Begriffe im Text direkt hintereinander stehen. Faustregel: Je mehr Begriffe Sie angeben, desto genauer sind hinterher die angezeigten Treffer. - Trickreicher wird es, wenn die Suchbegriffe nicht so eindeutig sind. Wer zum Beispiel etwas zu Hamlets berühmtester Textzeile sucht, sollte Anführungszeichen um den Suchbegriff verwenden: "Sein oder nicht sein" liefert nur die Dokumente, in denen die Begriffe exakt in dieser Schreibweise und Reihenfolge enthalten sind. Ergänzen Sie noch "hamlet" als zusätzlichen Suchbegriff (außerhalb der Anführungszeichen), werden die Seiten noch ergiebiger. - Sie erhalten völlig falsche Suchergebnisse, weil die Stichworte eine Doppelbedeutung haben? Ausschluss-Wörter sind die Lösung. Suchen Sie beispielsweise etwas zu Phaeton und denken dabei an das Automodell, aber sicher nicht an griechische Götter und Legenden? Verwenden Sie phaeton-auto-car-vw als Suche, um alle Seiten zu ignorieren, in denen es um dass falsche Thema geht; - Schwierig kann es auch werden, wenn Ihr Such-Stichwort dummerweise zu allgemein ist. Die Gerätebezeichnung is 380 (ein Kopfhörermodell) wird von Google nur mit der Meldung "'is' ist ein sehr häufiges Wort und wurde in der Suchanfrage ignoriert" quittiert. Abhilfe schafft die Suche mit "+is 380". - Sollen die Ergebnisse auf eine bestimmte Webseite oder Region begrenzt werden, kann ein weiterer Parameter helfen: "windows site:tippscout.de" liefert alle Seiten zum Thema Windows, aber eben nur von www.tippscout.de. Analog begrenzt "site:br" die Suche auf Seiten aus Brasilien, "-site:de" schließt deutsche Seiten von der Suche aus. - Sie interessieren sich fürs Grundgesetz, wollen aber keine seitenlangen Diskussionen, sondern nur das Dokument selbst lesen? Geben Sie den Dateityp an: "grundgesetz filetype:pdf° liefert das Gewünschte. Ebenso funktionieren natürlich doc, xls, jpg und andere Dateiarten. - Neben der Suchfunktion bietet Google noch etliche weitere Extras: Geben Sie doch einfach einmal Ihre Postleitzahl als Suchbegriff an. Google liefert den Link zu einem Stadtplan als Ergebnis.
  12. Sandner, M.: Neues aus der Kommission für Sacherschliessung (2008) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 3610) [ClassicSimilarity], result of:
          0.03132389 = score(doc=3610,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 3610, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3610)
      0.25 = coord(1/4)
    
    Content
    "Bei unserer öffentlich zugänglichen Kommissionssitzung in Linz wurden am 14. Mai die Gastvorträge von Armin Kühn "SWD im SWB - Schlagwortnormdatei im südwestdeutschen Bibliotheksverbund" und Jessica Hubrich "CrissCross: SWD-DDC-Mapping" gehalten und fanden viel Widerhall: kurz nach der Veranstaltung standen die Folien beider Referate über unsere KofSE-Seite in der VÖB-Homepage zur Verfügung. In diesem Heft werden schriftliche Kurzfassungen davon abgedruckt. Die Sitzung war von einem informellen "Runden Tisch" zur beginnenden DDC-Anwendung in Österreich gefolgt, an dem Frau Hubrich teilnahm. Auch bei unserem nächsten Treffen im frühen Herbst in Krems wird es am Dienstag, dem 23. September spätnachmittags wieder einen, diesmal etwas größeren "Runden Tisch" geben: im Vordergrund wird dabei die Integration der klassifikatorischen Suche im OPAC stehen. - Die erstmalige Integration des elektronischen Suchinstruments "MelvilSearch" zur DDC Deutsch in einem Aleph-OPAC wurde kürzlich an der FU-Berlin realisiert. Eine Demonstration der Suche dort soll den Impuls für unsere Tour d'horizon (DDC, RVK, BK, .) bilden. Schon am Vormittag findet die eigentliche Kommissionssitzung statt. Sie ist wieder öffentlich zugänglich. Wir erwarten diesmal zwei Gastvortragende aus Berlin. - Zunächst wird Norbert NAHRMANN von der SBB unsere Serie zur Normdatei- und SE-Arbeit in anderen Verbünden fortsetzen und über die Praxis im GBV berichten. Er wird dabei auch schon ein wenig auf die Basisklassifikation, die in der Verbundzentrale in Göttingen gepflegt wird, eingehen und nachmittags beim Runden Tisch als Ansprechpartner zur Verfügung stehen. - Danach wird Dörte BRAUNE-EGLOFF von der FUB über das "heiße" Thema Perspektiven der intellektuellen Inhaltserschließung vor dem Hintergrund aktueller Entwicklungen referieren. Ergänzend kündige ich gerne noch an, dass alle potenziellen DDC-Nutzer/-innen des Österreichischen Bibliothekenverbundes beim nächsten Treffen der kürzlich ins Leben gerufenen und daher noch wachsenden "Arbeitsgruppe DDC der ZRSE" (OBV) willkommen sind: es findet unmittelbar vor der KofSE-Sitzung in Krems statt."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.88
  13. Wiesenmüller, H.: Zehn Jahre 'Functional Requirements for Bibliographic Records' (FRBR) : Vision, Theorie und praktische Anwendung (2008) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 3616) [ClassicSimilarity], result of:
          0.03132389 = score(doc=3616,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 3616, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3616)
      0.25 = coord(1/4)
    
    Abstract
    Mithilfe der FRBR, an denen sich auch das neue Regelwerk RDA orientiert, sollen Katalognutzer auf neuar-tige Weise im 'bibliographischen Universum' navigieren können. Der Beitrag erläutert und diskutiert einer-seits die zentralen Elemente des theoretischen Modells, andererseits die Chancen und Probleme einer prakti-schen Umsetzung. Die in Deutschland vorhandenen Datenstrukturen bilden dafür eine vergleichsweise gute Ausgangsbasis. Denkbar ist aber auch eine virtuelle 'FRBRisierung' ohne Eingriff in den Datenbestand. Ein Jahrzehnt ist vergangen, seitdem der Abschlussbericht der 'Functional Requirements for Bibliographic Records' von der IFLA veröffentlicht wurde; seit 2006 liegt auch eine deutsche Übersetzung vor. Entwickelt wurde das dort beschriebene und unter der Abkürzung FRBR (auf Englisch zumeist "för-bör" ausgesprochen) bekannt gewordene Modell zwischen 1992 und 1997; die erste Anregung ging auf ein Seminar in Stockholm im Jahr 1990 zurück. Zahllose Arbeiten - wenn auch nur sehr wenige davon auf Deutsch - sind über die FRBR geschrieben worden, und auch im neuen Regelwerk 'Resource Description and Access' (RDA) spielen FRBR-Konzepte eine große Rolle. Umso bemerkenswerter ist es, dass auch im Jahr 2008 viele Bibliothekare nur eine vage Vorstellung davon haben - übrigens nicht nur im deutschsprachigen Raum, sondern auch in den USA: Robert L. Maxwell resümierte jüngst, dass "many librarians even now do not know what to make of it". . . . Auf alle Fälle ist es nun - zehn Jahre nach der FRBR-Studie - auch für deutschsprachige Bibliothekare an der Zeit, sich verstärkt mit den FRBR auseinanderzusetzen. Die Erfahrungen aus der eigenen Katalogtradi-tion, die in mancherlei Hinsicht schon FRBR-Qualität besitzt, sollte man dabei selbstbewusst in die internationale Diskussion einbringen. Besonders wichtig ist es, möglichst bald den Schritt von der Theorie in die Praxis zu gehen und unsere Kataloge mit erweiterten FRBR-Funktionalitäten anzureichern. Auch wenn man bei der Umsetzung Augenmaß walten lässt, so bedeutet dies natürlich trotzdem zusätzlichen Aufwand, der sich schlecht in die vorhandenen Rahmenbedingungen zu fügen scheint. Aber es würde sich - wie Maxwell richtig bemerkt - dabei um "effort well spent" handeln, "particularly in a period when the search capabilities of our catalogs are increasingly under fire".
  14. Altmeyer, M.; Thomä, H.: ¬Der intersubjektive Freud : Angesichts des boomenden Naturalismus lohnt es, eine weniger bekannte Seite des Gründungsvaters der Psychoanalyse in den Blick zu nehmen (2006) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.03132389 = score(doc=386,freq=56.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 386, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=386)
      0.25 = coord(1/4)
    
    Content
    "Ganz im naturwissenschaftlichen Zeitgeist seiner Epoche verstand sich Sigmund Freud in erster Linie als forschender Neurobiologe. Vom ersten Entwurf einer Psychologie (1895) bis zum postum veröffentlichten Abriss der Psychoanalyse (1940) gab er die Hoffnung nie auf, seine Hypothesen zum Seelenleben würden eines Tages durch Erkenntnisse über die Morphologie und Funktionsweise des zentralen Nervensystems belegt, psychoanalytische Spekulationen durch empirisches Wissen ersetzt werden können. Dieses "szientistische Selbstmissverständnis"; das Jürgen Habermas der Psychoanalyse einst bescheinigte, scheint sich heute als Königsweg zu erweisen, auf dem die Wissenschaft vom Unbewussten neue akademische wie gesellschaftliche Anerkennung erfährt. Jedenfalls fällt bei den derzeitigen Feierlichkeiten zu Freuds 150. Geburtstag auf, dass seine revolutionären Einsichten in die Conditio humana wissenschaftlich vor allem aus Sicht eines boomenden Neo-Naturalismus gewürdigt werden: Die Kognitionswissenschaften haben jene unbewussten seelischen Vorgänge, die von der Psychoanalyse stets behauptet und methodisch untersucht worden sind, experimentell längst nachgewiesen und zum integralen Bestandteil der menschlichen Natur erklärt. Der Jubilar würde sich bestätigt sehen. Neben einer biologisch fundierten Metapsychologie, die auch der klassischen Triebtheorie mit ihren Energiemetaphern zugrunde liegt, findet man in Freuds Werk allerdings noch einen zweiten, nirgends systematisch entwickelten metapsychologischen Ansatz, der die konstitutive Bezogenheit des Menschen auf andere Menschen, seine "soziale Natur", mit einbezieht. "Im Seelenleben des Einzelnen kommt ganz regelmäßig des Andere als Vorbild, als Objekt, als Helfer und als Gegner in Betracht und die Individualpsychologie ist daher von Anfang an auch gleichzeitig Sozialpsychologie", heißt es zum Beispiel in der Einleitung zu Massenpsychologie und Ich-Analyse (1921). Intersubjektivität gehört demnach zur mentalen Grundausstattung der menschlichen Spezies und muss dem Individuum nicht erst abgerungen werden - die Psyche selbst ist intersubjektiv verfasst. Angesichts der gegenwärtigen Renaissance eines naturalistisch verkürzten Menschenbildes lohnt sich heute ein Blick auf diesen anderen Freud.
    Hinzunahme der Mutterpflege Entwicklungspsychologische Hinweise auf eine Anthropologie der intersubjektiven Bezogenheit finden sich bereits in Freuds Formulierungen über die zwei Prinzipien des psychischen Geschehens (1911). Dort stellt er seine Ursprungsannahme vom autistischen Säugling unter einen aufschlussreichen Vorbehalt: Das "von den Reizen der Außenwelt abgeschlossene psychische System" funktioniere natürlich nur, wenn man "die Mutterpflege hinzunimmt". Offenbar gehört die einfühlsame, versorgende, all seine Bedürfnisse befriedigende Mutterfigur (die auch der Vater sein kann oder eine andere Bezugsperson) zur ungeteilten Erfahrungswelt des Säuglings wie selbstverständlich dazu. Der naheliegende Grund dafür ist dessen soziale Frühgeburt, auf die Freud in Hemmung, Symptom und Angst (1926) zu sprechen kommt: "Die Intrauterinexistenz des Menschen erscheint gegen die meisten Tiere relativverkürzt; er wird unfertiger als diese in die Welt geschickt. Dadurch wird der Einfluß der realen Außenwelt verstärkt, die Differenzierung des Ichs vom Es frühzeitig gefördert, die Gefahren der Außenwelt in ihrer Bedeutung erhöht und der Wert des Objekts, das allein gegen diese Gefahren schützen und das verlorene Intrauterinleben ersetzen kann, enorm gesteigert. Dies biologische Moment stellt also die ersten Gefahrensituationen her und schafft das Bedürfnis, geliebt zu werden, das den Menschen nicht mehr verlassen wird" (unsere Hervorheb.). Hier leitet Freud aus der neonatalen Hilflosigkeit des Säuglings nicht nur dessen besondere Realitätsbezogenheit, sondern auch das generelle Bedürfnis des Menschen ab, von anderen geliebt zu werden. Eben dieses Bedürfnis, das die Identitätsbildung lebensgeschichtlich begleitet und performativ im Narzissmus zum Ausdruck kommt, trägt einen intersubektiven Herkunftsstempel. Freud erwähnt den passiven Liebeswunsch bereits in seiner Studie über die Homosexualität von Leonardo da Vinci (1910) und bringt ihn in Zur Einführung des Narzissmus (1914) mit der interaktiven Regulierung des Selbstwertgefühls in Verbindung: "Wer liebt, hat sozusagen ein Stück seines Narzißmus eingebüßt und kann es erst durch das Geliebtwerden ersetzt erhalten." Ausgerechnet das narzisstische Bedürfnis nach dem liebenden Anderen verweist insgeheim auf jenes Objekt, das dem Narzissmus in der traditionellen Metapsychologie gerade verweigert wird.
    Das souveräne Ich ist mit der Entdeckung des Unbewussten zwar dezentriert, von Freud zugleich aber rezentriert worden, indem er dessen Anderes - das Es - als Trieb ins Körperinnere zurückholt und von seinem konstitutiven Bezug zur Objektwelt trennt. Dieser Internalismus steht nicht nur Pate bei der endgültigen Formulierung von Freuds Metapsychologie, sondern bestimmt auch die klinische Theorie der Neurose, die nun aus dem intrapsychischen Konflikt zwischen Trieb, Versagung und Schuld hervorgehen soll. Im von der somatischen Medizin geborgten Organismusmodell der Psyche lassen sich freilich jene Strukturen von Ich, Überich und Ichideal nicht ohne Rest unterbringen, die als Sedimente von Interaktionserfahrungen gelten können. Der "Schatten des Objekts", den Freud ursprünglich in den spezifischen Ich-Veränderungen bei der Melancholie gefunden, dann aber im Prozess der IchBildung generell ausgemacht hat, entzieht sich der intrapsychischen Eingemeindung. Ausgerechnet im kategorialen Zentrum seiner ansonsten monadisch angelegten Strukturtheorie mit ihrer Instanzenlehre und der mechanistischen Vorstellung vom psychischen Apparat behauptet Freud eine innere Vermittlung von Selbst und Anderem, eine mentale Verbindung von Innen- und Außenwelt: Das Ich sei "ein Niederschlag der aufgegebenen Objektbesetzungen" und enthalte "die Geschichte dieser Objektwahlen`; schreibt er in Das Ich und das Es (1923). Dieser für die Kodifizierung der psychoanalytischen Persönlichkeitstheorie bahnbrechende Aufsatz erscheint im gleichen Jahr wie Martin Bubers dialogphilosophische Schrift Ich und Du. Für den nüchternen Freud bleibt die Grundidee einer anthropologisch verankerten Intersubjektivität, die Bubers Werk so entscheidend prägt, jedoch ambivalent. So äußert er sich noch in Das Unbehagen in der Kultur (1930) skeptisch über das "ozeanische Gefühl", das sein Freund Romain Rolland gegen die Vorstellung eines abgegrenzten Selbst reklamiert. Dieses "Gefühl der unmittelbaren Verbundenheit, der Zusammengehörigkeit mit dem Ganzen der Außenwelt", so Freud, könne er in sich "nicht entdecken"; es habe für ihn "eher den Charakter einer intellektuellen Einsicht". Nur widerstrebend konzediert Freud Zustände, in denen die scheinbar eindeutige Abgrenzung des Ichs gegenüber der Außenwelt unsicher wird; solche Phänomene rechnet er zu den "dunklen Modifikationen des Seelenlebens", von denen er freimütig bekennt, dass sie ihm selbst nicht ganz geheuer seien. Ungeachtet dieser zugestandenen Idiosynkrasie gelangt Freud aber am Ende dieser Passage zu der Einsicht, dass das Ich-Gefühl des Erwachsenen nicht von Anfang an abgegrenzt gewesen sein könne: "Unser heutiges Ich-Gefühl ist also nur ein eingeschrumpfter Rest eines weit umfassenderen, ja eines allumfassenden Gefühls, welches einer inneren Verbundenheit des Ichs mit seiner Umwelt entsprach. Wenn wir annehmen dürfen, dass dieses Ich-Gefühl sich im Seelenleben vieler Menschen - in größerem oder geringeren Ausmaße - erhalten hat, so würde es sich dem enger und schärfer umgrenzten Ich-Gefühl der Reifezeit wie eine Art Gegenstück an die Seite stellen".
    Das relationale Unbewusste Diese wenigen Fundstellen, die man um weitere ergänzen könnte, reichen zwar nicht aus, um den Gründungsvater der Psychoanalyse zum Kronzeugen ihrer intersubjektiven Wende zu erklären (die in den Nachbarwissenschaften mit Bubers Anthropologie, Wittgensteins Sprachphilosophie oder G. H. Meads symbolischem Interaktionismus zu Freuds Zeiten bereits eingesetzt hatte); denn ungeachtet seiner anhaltenden Ambivalenz ist Freud letztlich bei der cartesianischen Trennung von Subjekt und Objekt geblieben, die ein vermittelndes Drittes und damit ein inter, ein Zwischen, nicht kennt. Es ist vielmehr umgekehrt: Erst ihr verspätet vollzogener "relational turn" versetzt die Psychoanalyse in die Lage, jene von Freud schon registrierte eigentümliche Weltbezogenheit neu zu entdecken, die in den mentalen Tiefen des Subjekts auf die virtuelle Gegenwart des Anderen verweist. Aus dieser Perspektive erscheint auch das Unbewusste, das in der klassisch-psychoanalytischen Topographie eine Art innere Unterwelt darstellt, als relational. Es drängt geradezu auf zwischenmenschliche Beziehungen und situiert den Einzelnen psychisch in seiner sozialen Umgebung - ohne dass es dabei immer harmonisch zuginge: Auch Hass, Neid oder Eifersucht verbinden. Hier trifft sich jenseits des boomenden Naturalismus modernes psychoanalytisches Denken mit dem einer aufgeklärten Neurobiologie. Diese favorisiert nämlich ihrerseits - nachdem sie Jahrhunderte lang vergeblich nach der Steuereinheit an der Spitze der neuronalen Hierarchie (dem Descartes'schen Homunkulus im Kopf) gesucht hat und dabei auf eine nicht-hierarchische Gehirnarchitektur gestoßen ist - die Hypothese einer intersubjektiven bzw. sozialen Konstruktion des Selbst. Hier bahnt sich eine fruchtbare interdisziplinäre Zusammenarbeit an, zu der die Psychoanalyse einiges beizutragen hat - eine Zusammenarbeit auf Augenhöhe, die immer noch vom "intersubjektiven Freud" profitieren kann.
  15. De Bellis, N.: Bibliometrics and citation analysis : from the Science citation index to cybermetrics (2008) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 572) [ClassicSimilarity], result of:
          0.03132389 = score(doc=572,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 572, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=572)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: JASIS 61(2010) no.1, S.205-207 (Jeppe Nicolaisen) Weitere Rez. in: Mitt VÖB 63(2010) H.1/2, S.134-135 (J. Gorraiz u. M. Wieland): "Das Buch entwickelte sich aus einem mehrjährigen Forschungsprojekt mit dem Ziel, den schwer verständlichen quantitativen Kern der Bibliometrie in einem für primär italienische Bibliothekare leichteren historischen und philosophischen Kontext zu vermitteln, wie der Autor im Vorwort erklärt. Dank einer Empfehlung von Eugene Garfield steht dieses Werk nun auch in englischer Übersetzung einer internationalen Leserschaft zur Verfügung. Die über 400 Seiten lange Monografie von de Bellis gibt in acht Kapiteln einen detaillierten und sehr präzisen Überblick über die Bibliometrie und die Zitationsanalyse, ihre Natur und Entwicklung, ihre Kontroverse und Prognose. . . . Das Buch von de Bellis ist sehr empfehlenswert für alle die beabsichtigen, sich mit dieser neuen Wissenschaft zu beschäftigen. Es endet mit folgendem Statement: "Scientometricians have to learn to live in a multidimensional world". Und genau hier liegt die Herausforderung und Schönheit dieses Metiers."
  16. Peters, I.: Folksonomies : indexing and retrieval in Web 2.0 (2009) 0.01
    0.007830973 = product of:
      0.03132389 = sum of:
        0.03132389 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.03132389 = score(doc=203,freq=14.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25933182 = fieldWeight in 203, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=203)
      0.25 = coord(1/4)
    
    Abstract
    Kollaborative Informationsdienste im Web 2.0 werden von den Internetnutzern nicht nur dazu genutzt, digitale Informationsressourcen zu produzieren, sondern auch, um sie inhaltlich mit eigenen Schlagworten, sog. Tags, zu erschließen. Dabei müssen die Nutzer nicht wie bei Bibliothekskatalogen auf Regeln achten. Die Menge an nutzergenerierten Tags innerhalb eines Kollaborativen Informationsdienstes wird als Folksonomy bezeichnet. Die Folksonomies dienen den Nutzern zum Wiederauffinden eigener Ressourcen und für die Recherche nach fremden Ressourcen. Das Buch beschäftigt sich mit Kollaborativen Informationsdiensten, Folksonomies als Methode der Wissensrepräsentation und als Werkzeug des Information Retrievals.
    Footnote
    Zugl.: Düsseldorf, Univ., Diss., 2009 u.d.T.: Peters, Isabella: Folksonomies in Wissensrepräsentation und Information Retrieval Rez. in: IWP - Information Wissenschaft & Praxis, 61(2010) Heft 8, S.469-470 (U. Spree): "... Nachdem sich die Rezensentin durch 418 Seiten Text hindurch gelesen hat, bleibt sie unentschieden, wie der auffällige Einsatz langer Zitate (im Durchschnitt drei Zitate, die länger als vier kleingedruckte Zeilen sind, pro Seite) zu bewerten ist, zumal die Zitate nicht selten rein illustrativen Charakter haben bzw. Isabella Peters noch einmal zitiert, was sie bereits in eigenen Worten ausgedrückt hat. Redundanz und Verlängerung der Lesezeit halten sich hier die Waage mit der Möglichkeit, dass sich die Leserin einen unmittelbaren Eindruck von Sprache und Duktus der zitierten Literatur verschaffen kann. Eindeutig unschön ist das Beenden eines Gedankens oder einer Argumentation durch ein Zitat (z. B. S. 170). Im deutschen Original entstehen auf diese Weise die für deutsche wissenschaftliche Qualifikationsarbeiten typischen denglischen Texte. Für alle, die sich für Wissensrepräsentation, Information Retrieval und kollaborative Informationsdienste interessieren, ist "Folksonomies : Indexing and Retrieval in Web 2.0" trotz der angeführten kleinen Mängel zur Lektüre und Anschaffung - wegen seines beinahe enzyklopädischen Charakters auch als Nachschlage- oder Referenzwerk geeignet - unbedingt zu empfehlen. Abschließend möchte ich mich in einem Punkt der Produktinfo von de Gruyter uneingeschränkt anschließen: ein "Grundlagenwerk für Folksonomies".
  17. Online-Enzyklopädie Wikipedia (2003) 0.01
    0.0077695525 = product of:
      0.03107821 = sum of:
        0.03107821 = weight(_text_:und in 2410) [ClassicSimilarity], result of:
          0.03107821 = score(doc=2410,freq=18.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.2572978 = fieldWeight in 2410, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2410)
      0.25 = coord(1/4)
    
    Abstract
    "Der deutschsprachige Ableger der Online-Enzyklopädie Wikipedia feiert seinen zehntausendsten Artikel. Bei dem offenen Projekt kann jeder Benutzer über das Internet nicht nur Artikel lesen, sondern auch ohne Anmeldung schreiben und bearbeiten. Auf diese Weise kamen in anderthalb Jahren nach Angaben der Organistoren 10.000 Artikel zusammen, die teilweise von überraschend hoher Qualität sind. Dafür sorgen die zahlreichen fachlich versierten Teilnehmer, die an dem Projekt mitarbeiten. Wikipedia-Artikel sind kostenlos abrufbar und dürfen frei weiterverbreitet werden. Alle Inhalte werden unter den Bedingungen der GNU-Lizenz für Freie Dokumentation veröffentlicht. Diese aus der OpenSource-Software-Szene heraus entstandene Lizenz stellt sicher, dass jeder Artikel in beliebiger Weise verwendet werden darf, auch kommerziell, solange dieses Recht auch weiterhin eingeräumt wird. Ein Projekt zum Mitmachen Besonders die uneinschränkbare Weiterverwendbarkeit reizt viele Teilnehmer, selbst Artikel beizusteuern. Ein Abbruch des Projekts ist nahezu ausgeschlossen, da sowohl die verwendete Software als auch die Artikel frei verfügbar sind. Die deutschsprachige Wikipedia ist der größte Ableger des gleichnamigen englischsprachigen Projekts, das im Januar 2001 gegründet wurde. Kurz zuvor, am 21. Januar, wurde dort der 100.000ste Artikel geschrieben; über 27.000 Artikel existieren in 26 weiteren Sprachen. Die Gründer der englischsprachigen Wikipedia sind der Internet-Unternehmer Jimmy Wales und der Philosoph Lorry Sanger. Wales sorgt für die finanzielle Unterstützung des Projekts, und Sanger leitete das Projekt im ersten Jahr. Beide schreiben den Erfolg Wikipedias dem Umstand zu, dass eine eingefleischte Gruppe von Teilnehmern zusammen die Einhaltung der selbst aufgestellten Qualitäts- und Neutralitätsstandards überwachen. "Alle Teilnehmer überwachen sorgfältig die Seite mit den letzten Änderungen", sagt Wales. "Jeder redigiert ständig die Arbeit der anderen Teilnehmer. Es ist überraschend, dass dies so gut funktioniert, aber das tut es. - Reger Besuch - Schon nach einem Jahrfeierte die englische Wikipedia den 20.000sten Artikel, ein weiteres Jahr später hat sich diese Zahl verfünffacht. Nicht zuletzt aufgrund dieses rasanten Wachstums ist Wikipedia bereits in der New York Times, dem New York Times Magazines, der deutschen Computerzeitschrift c't und zahlreichen anderen Online-und Offline-Medien thematisiert worden. Mehr als 600 Benutzer haben sich bei der deutschen Wikipedia registriert, über 7000 sind es bei der englischen. Der Erfolg solch eines offenen Projektes, das von vielen unterschiedlichen Autoren getragen wird, mag verwirren: Wie können so viele Personen mit so unterschiedlichen Hintergründen ohne wirkliche Führung zusammenarbeiten? Teils - so antworten die Organisatoren des Projekts -, weil die Teilnehmer sehr einfach gegenseitig ihre Beiträge bearbeiten können, und teils, weil das Projekt strenge Regeln gegen jede Art von Voreingenommenheit hat; dies führe zu einem freundlichen und produktiven Diskussionsklima. Sanger erklärt: "Mit Hilfe unseres Neutralitätsgebots bringen wir Menschen mit unterschiedlichen Positionen dazu, an den selben Artikeln zu arbeiten. Es ist wirklich bemerkenswert." - Interesse auch bei den Wissenschaftlern - Was motiviert einen Wissenschaftler, in einem so offenen Projekt teilzunehmen? Für Axel Boldt, Mathematikprofessor an der Metropolitan State University in St. Paul (Minnesoto) ist die Motivation, Dutzende mathematischeArtikel beizusteuern "die gleiche, die mich zur akademischen Arbeit motiviert: Es macht Spaß zu lehren, es macht Spaß zu lernen, es macht Spaß, mit intelligenten Menschen zu arbeiten.""
  18. Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005) 0.01
    0.0077695525 = product of:
      0.03107821 = sum of:
        0.03107821 = weight(_text_:und in 4353) [ClassicSimilarity], result of:
          0.03107821 = score(doc=4353,freq=18.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.2572978 = fieldWeight in 4353, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4353)
      0.25 = coord(1/4)
    
    Abstract
    Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
  19. Lewandowski, D.: Suchmaschine im Betriebssystem (2005) 0.01
    0.0077695525 = product of:
      0.03107821 = sum of:
        0.03107821 = weight(_text_:und in 4438) [ClassicSimilarity], result of:
          0.03107821 = score(doc=4438,freq=18.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.2572978 = fieldWeight in 4438, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4438)
      0.25 = coord(1/4)
    
    Content
    "Bei der Vielzahl der angebotenen Werkzeuge fällt die Entscheidung schwer. Schließlich braucht man ein solches Tool lediglich, um die auf dem eigenen Rechner vorhandenen Dateien durchsuchbar zu machen. Warum benötigt man überhaupt ein Zusatzprogramm? Die Antwort lautet, dass die gängigen Betriebssysteme mangelhaft sind: Wer die Dateisuche zum Beispiel in Windows einmal benutzt hat, möchte dies am liebsten nie wieder tun. Die Dateien des eigenen Rechners sind nicht indiziert, so dass die gesamte Festplatte bei jeder Suchanfrage durchsucht werden muss. Die Suche dauert lange und erfasst in der Standardeinstellung nur die Dateinamen, nicht den Inhalt der Dateien. Seit längerem haben sowohl Microsoft als auch Apple angekündigt, damit in künftigen Versionen ihrer Betriebssysteme Schluss zu machen. Während der Start der neuen Windows-Version "Longhorn" in weiter Ferne liegt, hat die neueste Version von Apples OS X ("Tiger") mit dem prominent platzierten Suchtool "Spotlight" eine Desktop-Suche integriert. Diese durchsucht schnell Dokumente, Ordner, Kontakte, Lesezeichen und E-Mails. Voraussetzung ist allerdings, dass man für EMails und Internet auch die Apple-eigenen Programme verwendet. Eine Kombination von Desktop- und Web-Suche ist (zumindest bisher) nicht realisiert. Die Anwendung zeigt jedoch, wie sich die Suche direkt ins Betriebssystem integrieren lässt. Ähnliches dürfte von Microsoft zu erwarten sein. Da die Suche in Zukunft zu einem integralen Bestandteil der Arbeitsumgebung wird und damit die Unterschiede zwischen der Suche auf dem eigenen Rechner und der Suche im Web verschwimmen, stellen die in die Betriebssysteme integrierten Suchfunktionen eine Konkurrenz für die Suchmaschinen dar. Diese reagieren, indem sie eigene Suchtools anbieten und damit rechnen, dass sich die Nutzer so an diese gewöhnen, dass sie sie trotz der vorinstallierten Konkurrenz weiter benutzen. Dazu müssen sie allerdings einen Zusatznutzen bieten. Die Einführung der Google-Desktop-Suche (siehe Password 11 /2004) hat diese Art von Suchwerkzeug schlagartig bekannt gemacht. Seitdem hat sich auf dem Markt einiges getan. Nach dem Privatnutzer haben die Anbieter die Unternehmenskunden in den Blick gneommen. So wendet sich eine neue Version des Google-Tools speziell an diese Nutzergruppe. Auch sie ist kostenlos und kann nach vorheriger Registrierung unter http://desktop.google.com/enterprise heruntergeladen werden.
    Wichtig bei einer Entscheidung für ein bestimmtes Suchtool ist der den individuellen Bedürfnissen angepasste Funktionsumfang. Neben der Dateisuche, die alle Programme für die gängigen Formate bewerkstelligen, sollte beispielsweise geprüft werden, welche E-Mail-Formate unterstützt werden. Am wenigsten Probleme hat man wie auch sonst, wenn man nur die Standardsoftware von Microsoft verwendet - deren Dateiformate werden von allen Suchtools unterstützt. Verwendet man aber Programme mit "exotischeren" Dateiformaten oder möchte man beispielsweise Protokolle aus dem Instant Messaging durchsuchen, so wird die Auswahl der Programme deutlich eingeschränkt. Vor der Installation eines Programms sollte man also genau prüfen, ob es den eigenen Anforderungen genügt. Hilfreich ist die umfassende und aktuelle Übersicht des "Suchberaters" Goebel Group unter http://www.goebelgroup.com/desktopmatrix.htm. In dieser Übersicht sind die Preise der einzelnen Tools angegeben. Denn vor allem die von den großen Web-Suchmaschinen angebotenen Werkzeuge sind kostenlos. Mächtigere Programme kosten Geld - auch das sollte man im Umfeld der von den Suchmaschinen repräsentierten Kostenlos-Kultur nicht vergessen. Letztlich sollte der individuelle Nutzen für die Wahl entscheidend sein."
  20. Magdans, F.: Kompaktes Wissen in 3D : 30 Bände in einer Streichholzschachtel (2005) 0.01
    0.0077695525 = product of:
      0.03107821 = sum of:
        0.03107821 = weight(_text_:und in 5090) [ClassicSimilarity], result of:
          0.03107821 = score(doc=5090,freq=18.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.2572978 = fieldWeight in 5090, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5090)
      0.25 = coord(1/4)
    
    Content
    "Der britische Staatsmann Francis Bacon hat es der Menschheit gesagt: "Wissen ist Macht". Sein Slogan hat bis dato nichts von seiner Aktualität verloren. Ganz im Gegenteil. Informationen über historische Ereignisse, wissenschaftliche Phänomene und berühmte Menschen stehen mehr denn je hoch im Kurs. Doch wer heutzutage Inhalte nachschlägt, geht ins Internet und klickt sich im Wikipedia-Portal von A bis Z. Auf diese Entwicklung reagiert die Konkurrenz mit neuen Offline-Enzyklopädien. Den größten Schritt geht Brockhaus: Parallel zur 21. Auflage der hauseigenen Enzyklopädie erscheint eine digitale Variante, die aus zwei DVD-ROMs und - das ist neu - einem USB-Memory-Stick mit Docking-Station besteht. Auf dem tragbaren Medium, das etwa das Format einer Streichholzschachtel hat, befindet sich die komplette Textsubstanz der 30 Printbände, so dass bei reiner Nutzung des schicken Datenträgers keine Installation auf der Festplatte erforderlich ist. Denn die Anwendung auf dem Stick enthält bereits die Oberfläche, die auch nach der Installation der DVDs benutzt wird. So werden die multimedialen Features einfach miteingegliedert. Im Vergleich zum ohnehin schon lobenswert bedienbaren "Brockhaus multimedial" bietet die "Enzyklopädie digital" das bekannte Wissensnetz nicht in 2D, sondern in 3D. Beim Nachschlagen erlebt der Benutzer noch etwas Einfallsreiches: Dank einer natürlich-sprachlichen Suchhilfe gelangt er etwa mit der Frage "Welches Tier hat zwei Höcker" zum gewünschten Ergebnis. Derartige Entwicklungen haben aber auch ihren Preis: Satte 1499 Euro kostet der Spaß. Wem das zu teuer ist, der erhält mit dem "Brockhaus multimedial 2006" in der Premium-Version für rund 100 Euro 255 000 Artikel zu allen nur erdenklichen Themen, die mit einer konfigurierbaren Suchfunktion auf den Bildschirm geholt und auf Wunsch direkt ausgedruckt werden. Wer die Editionen der vergangenen Jahre kennt, wird viele Ähnlichkeiten feststellen. Es sind aber auch Neuerungen hinzugekommen. So gibt es jetzt beispielsweise erstmals einen Kulturführer, der bedeutende Filme, Bücher, Opern und Theaterstücke jeweils in einer Top-50-Liste darstellt. Hinzu kommt diesmal auch ein Kinder- und Jugendlexikon, denn im Bildungsbereich spielt der Mannheimer Verlag eine wichtige Rolle. Rein auf die Entwicklung bezogen, ist diese Erweiterung in Richtung Schulalltag allerdings nichts anderes als eine direkte Reaktion auf Microsofts "Encarta". Das Nachschlagewerk von Bill Gates' Unternehmen hat nämlich schon vergangenes Jahr eine Kids-Sektion in seine Enzyklopädie integriert - und diese Aufgabe auch besser gelöst.
    Keine Frage, die "Encarta 2006" wird von Brockhaus' Schritt in das Hardware-Segment überschattet. Im Vergleich zum "Brockhaus multimedial 2006" braucht sich das Produkt aber keineswegs zu verstecken, sind die Inhalte doch gleichermaßen auf Bildungsniveau. Zudem kostet die umfangreichste Variante in diesem Jahr nur 60 Euro. Der Atlas der "Encarta" gefällt außerdem besser, weil er nicht nur ansprechender gestaltet ist, sondern auch weiterführende Informationen zu den Ländern geschickter mit Querverweisen verlinkt. Doch da Anwender diese Features ohnehin kennen, lohnt ein Blick auf eine weitere Neuheit: Vor kurzem kam erstmals die "Redshift Enzyklopädie Weltall" auf den Markt, die von United Soft Media (USM) unter dem Label National Geographic vertrieben wird. Zum fairen Preis von 50 Euro erfährt man alles Wissenswerte über die Forschungshistorie, angefangen bei den Mayas über die Griechen bis hin zu Einstein und seinen Nachkommen. Etliche QuickTime-Filme erläutern all das, was zu einem genaueren Verständnis des Themenkomplexes Universum notwendig ist. Wer nüchterne Fakten studieren möchte, ruft einfach das Astronomielexikon auf. Im unteren Preissegment tut sich hingegen nicht viel. Eine Ausnahme bildet USM. Der Münchner Verlag legt das schon fast in Vergessenheit geratene "Bertelsmann Universallexikon" neu auf. Das Programm bietet nicht mehr als grundlegende Dinge, hat also rein informativen Charakter. Doch was soll man für 15 Euro schon anderes erwarten? Die Crux: Da kommt wieder die Wikipedia-Bewegung mit ihrem kostenfreien Internetportal zum Zug, ist der Umfang an Artikeln doch immens gestiegen. Wer jedoch auf verifiziertes Wissen in Hülle und Fülle zurückgreifen will, sollte sich eher an Brockhaus oder Microsoft halten."

Languages

  • d 4221
  • e 486
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 219
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • p 1
  • More… Less…

Themes

Subjects

Classifications