Search (4749 results, page 210 of 238)

  • × year_i:[2000 TO 2010}
  1. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4378) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4378,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4378, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4378)
      0.25 = coord(1/4)
    
    Abstract
    Im Kampf gegen die Vermüllung ihrer Trefferlisten haben sich die Konkurrenten Google, Microsoft und Yahoo darauf geeinigt, ein neues Attribut für die Verlinkung von Webseiten auszuwerten. Dies könnte ein erster Schritt zu weniger Spam und einer weiteren Zusammenarbeit dergroßen Suchmaschinen sein.
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
  2. Arnold, A.: Besser googeln mit 20 Tricks (2004) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4409) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4409,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4409, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4409)
      0.25 = coord(1/4)
    
    Abstract
    Holen Sie das Beste aus Gogle heraus. Mit diesen 20 Tricks finden Sie alles schneller, einfacher und zuverlässiger: Integrieren Sie die Suche in den Internet Explorer, nutzen Sie das neue Übersetzungs-Tool, und blockieren Sie lästige Pop-ups - alles mit Google
  3. Helber, S.; Stolletz, R.: Call Center Management in der Praxis : Strukturen und Prozesse betriebswirtschaftlich optimieren (2004) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4444) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4444,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4444, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4444)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch stellt die Grundlagen des Operations Management im Call Center anwendungsorientiert dar. Hierbei zielen die Autoren vorrangig auf Inbound Call Center ab, bei denen die Anrufe von außen eingehen. Im Vordergrund steht der Prozess der Leistungserstellung im Call Center. Zunächst wird die Frage erörtert, wie man die Performance des Call Centers misst - aus der Sicht der Anrufer wie aus der Sicht der Betreiber. Anschließend erfährt der Leser, wie insbesondere bei großen Call Centern effiziente Strukturen aussehen und wie nicht. Im dritten Teil des Buches wird die Planung der täglichen Abläufe dargestellt. Das Buch richtet sich an Praktiker im Call Center Management. Die Ausführungen sind jedoch auch für Studenten geeignet.
  4. Wissenskommunikation in Organisationen : Methoden, Instrumente, Theorien (2004) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4446) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4446,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4446, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4446)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch hat das Ziel, der Kommunikationsperspektive im Wissenstransfer mehr Gewicht zu geben. Die Autoren gehen der Frage nach, wie Kommunikation gestaltet werden kann, um den internen und externen Wissenstransfer zu verbessern. Der erste Teil behandelt die theoretischen Grundlagen zur Wissenskommunikation aus Sicht der Forschung. Im zweiten Teil werden anhand von Fallstudien Methoden und Instrumente der Wissenskommunikation für die Praxis erläutert. Im letzten Teil werden zum einen die Gestaltungsfaktoren von Wissenskommunikation, die anhand der Fallstudien erörtert wurden, kritisch gewürdigt. Zum anderen werden anhand einer theoretischen Reflexion die Implikationen für die weitere Forschung zum Konzept der Wissenskommunikation aufgezeigt.
  5. Schodder, W.; Nake, F.: ¬Die »zufällige Mitrealität« des Computers : Interview mit Frieder Nake (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4530) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4530,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4530, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4530)
      0.25 = coord(1/4)
    
    Abstract
    In der Welt des Frieder Nake brauchen wir keine Kunst - und Netzkunst schon gar nicht. Denn die ist in den Augen des Computerkünstlers nur für Leute gemacht, die zu viel Zeit haben. Dass er trotzdem kein Kulturpessimist ist, zeigt sein gedanklicher Streifzug durch die rasante Geschichte der digitalen Ästhetik. Frieder Nake ist Professor für Grafische Datenverarbeitung und interaktive Systeme an der Universität Bremen. 1965 hatte er seine erste Ausstellung mit computergenerierten Arbeiten. Fünf Jahre später nahm er an der 35. Biennale in Venedig teil.
  6. Rehn, A.: Daten-Schnüffler : Software-Entwickler verbessern Suchmaschinen, um Ordnung ins Chaos zu bringen (2004) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4671) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4671,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4671, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4671)
      0.25 = coord(1/4)
    
    Content
    "Ein Surfer-Leben ohne Suchmaschinen ist nicht vorstellbar. Doch so großartig die virtuellen Spürhunde auch sind sie haben eine Schwäche: Oft liefern sie einfach zu viele Informationen. Und die meisten Seiten' die als Ergebnis ausgeworfen werden, sind oft gar nicht von Interesse für den Surfer. Findige Software-Entwickler wollen nun Ordnung ins Chaos bringen und Google und Co. den Rang in der Gunst der Internet-Nutzer ablaufen. Das Prinzip ist einfach: Die Suchergebnisse werden bereits vor dem Anzeigen analysiert und automatisch in Kategorien sortiert. Anders als bei den herkömmlichen Listen, denen meist die innere Ordnung fehlt nimmt die Software dem Suchenden also das Strukturieren der Fundstellen ab. Dieses Prinzip steckt beispielsweise hinter der Meta-Suchmaschine www vivisimo. com. "Wir beleben den sonst nervtötenden Prozess der Informationssuche" sagt Vivisimo-Mitgründer Raul Valdes-Perez. Das Unternehmen aus Pittsburgh verkauft seine Technologie nicht nur an Geschäftskunden; sondern stellt die ClusterMaschine im Internet kostenlos zur Verfügungauch in einer deutschen Version. Wenn man sich das Web als einen riesigen Buchladen vorstellt, in dem alle Bücher willkür - lich auf dem Boden aufgestapelt sind, dann ist Vivisimo nach Darstellung von Valdes-Perez ein rasanter Buchhändler der die verschiedenen Titel in Sekundenschnelle nach sinnvollen Kriterien in Regale einordnet. Doch anders als in Buchläden oder Bibliotheken gibt es bei Vivisimo keine festen Kategorien. Die Software legt sie ad hoc fest indem sie die Sucherergebnisse nach linguistischen und statistischen Gesichtspunkten analysiert.
    - Karte mit bunten Kreisen - Während Vivisimo noch eine klassische MetaSuchmaschine ist, ist Grokker (www.groxis. com) ein Programm des kalifornischen Softwareunternehmens Groxis, schon optisch eine Innovation. Es sortiert die Suchergebnisse nicht nur, sondern visualisiert-die Kategorien als Karte mit bunten Kreisen. Innerhalb eines solchen Kreises gibt es Unterkategorien, also kleinere Kreise, die angeklickt werden können. Allerdings dauert es ein wenig, bis man sich damit zurechtfindet. Ein einfaches Beispiel verdeutlicht den Unterschied zu herkömmlichen Suchmaschinen. Bei den Schlagworten "Paris Hilton" erhält man etwa bei Google einerseits Treffer aus der Kategorie Reisen und Unterkünfte andererseits aber auch jede Menge Seiten, auf denen die Hotelerbin Paris Hilton erwähnt ist. Denn Google sortiert die Fundstellen danach wie viele Links zur jeweiligen Seite führen. Dem Nutzer bleibt die Arbeit, die lange Liste zu durchforsten: Nicht so bei Grokker oder Vivisimo: Hier werden die Ergebnisse nach Themengebieten gruppiert. Grokker selbst ist aber keine Suchmaschine, sondern kombiniert die Resultate von Yahoo, MSN, AltaVista, Wisenut, Teoma und FAST. Das Programm kann auch Dateien auf der Festplatte kategorisieren. Wir sind jetzt in der Lage, alles zu 'grokken'" sagt Groxis-Chef R. J. Pittman. Auch mit Google stehe man in Verhandlungen. Anders als bei Vivisimo gibt es von Grokker keine deutsche Version. Und außerdem ist das Programm nicht gratis: Die Vollversion kostet 49,95 Dollar, eine kostenlose Testversion für 30 Tage kann nach Anmeldung heruntergeladen werden. Eine andere Form der Visualisierung von Suchergebnissen hat www.touchgraph.com entwickelt. Die Firma bietet mit dem TouchGraph Google Browser ein Applet an, das die Fundstellen als Netzstruktur, als Beziehungsgeflecht veranschaulicht. Basis dafür ist die GoogleFunktion "Ähnliche Seiten". Die dokumentierten Verknüpfungen zwischen den verschiedenen Internetseiten werden grafisch dargestellt."
  7. Scheffel, R.; Rohde-Enslin, S.: Voraussetzungen für eine Langzeiterhaltung digitalen Kulturerbes in Museen (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4852) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4852,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4852, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4852)
      0.25 = coord(1/4)
    
    Abstract
    Die Frage der Langzeitarchivierung digitaler Daten hat in der deutschen »Museumslandschaft« ihre spezifische Ausprägung. Im Vergleich der Rahmenbedingungen mit jenen des Archivund Bibliotheksbereiches werden die Besonderheiten sichtbar. Schlaglichtartig beleuchtet der Artikel die Rahmenbedingungen, diejede Konkretisierung determinieren. Ein Blick über die nationalen Grenzen weist auf Ressourcen wie die UNESCO »Guidelines for the Preservation of Digital Heritage« oder die »Digital Preservation for Museums: Recommendations« des Canadian Heritage Information Network, die geeignet sind im Sinne von »best practice«-Empfehlungen die Entwicklung von Strukturen und Lösungen für die Langzeitarchivierung digitaler Daten in deutschen Museen anzuregen.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.3/4, S.143-150
  8. Gahn, P.: ¬Der Index Theologicus an der Bibliothek der Philosophisch-Theologischen Hochschule der Salesianer Don Boscos in Benediktbeuern (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4855) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4855,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4855, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4855)
      0.25 = coord(1/4)
    
    Abstract
    Der Index Theologicus (IxTheo) gehört mit seinem Vorgänger, dem Zeitschrifteninhaltsdienst der Universitätsbibliothek Tübingen (ZID), seit seinem ersten Erscheinen im Jahr 1975 zum Bestand der Bibliothek der PhilosophischTheologischen Hochschule in Benediktbeuern (PTH-Bibliothek) - einer Einrichtung, die für die Literaturbelange von Studenten und Dozenten sowohl der Sozialpädagogik als auch der Theologie zuständig ist. Als Current-Contents war er zunächst in Druckform erschienen. Mittels der wiedergegebenen Inhaltsverzeichnisse von an der UB Tübingen bezogenen theologischen Zeitschriften gab er so einen ersten Überblick über die aktuellen Diskussionen des Faches. Ungeeignet war dagegen dieser Service für die retrospektive Literatursuche, wenngleich jährliche Autoren- und (nach einiger Zeit auch) Personenregister, die später wiederum im Fünfjahresrhythmus zusammengefasst wurden, gewisse Möglichkeiten boten. Tiefere sachliche Einstiege waren jedoch nicht vorgesehen.
  9. Deutsche Internetbibliothek : Erweiterung des Kooperationsverbund (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 4861) [ClassicSimilarity], result of:
          0.029300818 = score(doc=4861,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 4861, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4861)
      0.25 = coord(1/4)
    
    Abstract
    Seit Juni 2005 beteiligen sich auch wissenschaftliche Bibliotheken an der Deutschen Internetbibliothek. Der 2002 an den Start gegangene Kooperationsverbund aus 70 Öffentlichen Bibliotheken, der den Internetnutzern sowohl einen annotierten Linkkatalog als auch eine kostenlose E-Mail-Auskunft zur Verfügung stellt, bietet seit kurzem auch interessierten wissenschaftlichen Bibliotheken die Möglichkeit, ihre zum Teil sehr fachspezifischen Informationsressourcen einer breiteren Öffentlichkeit zu vermitteln. Neben Universalbibliotheken, wie z.B. die UB Oldenburg oder die SLUB Dresden haben bereits einige hochspezialisierte Informationseinrichtungen, wie die ZBMED in Köln und die TIB Hannover ihre Mitarbeit an der Deutschen Internetbibliothek im Rahmen der E-Mail-Auskunft signalisiert. Zu den inzwischen 20 neuen Teilnehmerbibliotheken gehören u. a. auch das Informationszentrum des Goethe-Instituts in München und die Schweizerische Landesbibliothek in Bern.
  10. dpa: Brockhaus wird ein dicker Brocken (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 5089) [ClassicSimilarity], result of:
          0.029300818 = score(doc=5089,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 5089, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5089)
      0.25 = coord(1/4)
    
    Content
    "Der Mannheimer Brockhaus-Verlag will mit der 21. Ausgabe seines Nachschlagewerkes demnächst die umfassendste Enzyklopädie aller Zeiten vorlegen. Die Zahl der Bände stieg im Vergleich zur Vorgängerausgabe wegen Ergänzungen oder neuer Themen um 6 auf 30 (Gesamtgewicht: 70 Kilogramm). Sie enthalten auf 24.500 Seiten 300.000 Stichwörter sowie mehr als 40 000 Fotos, Bildtafeln, Grafiken und Karten. Der Inhalt wird auch in digitaler Form auf einer kleinen Speichereinheit (USB-Speicherstick) angeboten und kann am Computer aufgerufen werden. In der neuen Ausgabe sei der Bildbereich stark erweitert worden, sagte Projektleiterin Marion Winkenbach. Zudem wurden 600 Quellentexte aufgenommen, etwa ein Zeitzeugenbericht zu Alexander dem Großen. Zu den neuen Themen gehören "Feinstaub", "Esskultur" oder IT-Sicherheit". Die Käufer erhalten zudem zwei DVDs mit 70 Stunden Spielzeit."
  11. Oberhauser, O.: Automatisches Klassifizieren und Bibliothekskataloge (2005) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 5099) [ClassicSimilarity], result of:
          0.029300818 = score(doc=5099,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 5099, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5099)
      0.25 = coord(1/4)
    
    Abstract
    In der bibliothekarischen Welt sind die Vorzüge einer klassifikatorischen Inhaltserschließung seit jeher wohlbekannt. Auch im Zeitalter der Online-Kataloge gibt es dafür keinen wirklichen Ersatz, da - kurz formuliert - ein stichwortbasiertes Retrieval alleine mit Problemen wie Ambiguität und Mehrsprachigkeit nicht fertig zu werden vermag. Zahlreiche Online-Kataloge weisen daher Notationen verschiedener Klassifikationssysteme auf; allerdings sind die darauf basierenden Abfragemöglichkeiten meist noch arg unterentwickelt. Viele Datensätze in OPACs sind aber überhaupt nicht sachlich erschlossen, sei es, dass sie aus retrospektiv konvertierten Nominalkatalogen stammen, sei es, dass ein Mangel an personellen Ressourcen ihre inhaltliche Erschließung verhindert hat. Angesichts großer Mengen solcher Datensätze liegt ein Interesse an automatischen Verfahren zur Sacherschließung durchaus nahe.
  12. Kleinz, T.: Wer Wikipedia fälscht... : ... wird meistens ertappt, wie jüngst einige US-Senatoren (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 5916) [ClassicSimilarity], result of:
          0.029300818 = score(doc=5916,freq=16.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 5916, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5916)
      0.25 = coord(1/4)
    
    Content
    "Ist der US-Kongress ein Hort des Internet-Vandalismus? Manipulationen von Einträgen der Internet-Enzyklopädie Wikipedia durch Mitarbeiter des US-Kongresses machen die Runde durch die Medien. Der Skandal schrumpft bei näherer Betrachtung, wirft aber kein gutes Licht auf die Gepflogenheiten im politischen Washington. Ausgelöst wurde die Affäre durch Matty Meehan, seit 1992 Abgeordneter im Repräsentantenhaus. Sein Heimatblatt, die Lowell Sun, berichtete von Manipulationen am Wikipedia-Artikel des Abgeordneten. Augenscheinlich war sein Lebenslauf von seinen eigenen Mitarbeitern geschönt worden. Meehans Büroleiter gab die Änderungen zu - allerdings habe man nur einen schlechten Wikipedia-Artikel durch einen besseren ersetzen wollen. Dass dabei kritische Bemerkungen über die Finanzierung seiner Wahlkampagnen und nicht eingehaltene Wahlversprechen unter den Tisch fielen, sei keine böse Absicht gewesen. Wikipedia als ideales Ziel Unterstützung von Grassroot-Bewegungen vorzutäuschen, gehört inzwischen zum normalen Instrumentarium politischer Kampagnen in den USA. Wikipedia erscheint als ideales Ziel für solche "Astroturfing"-Kampagnen: Die Online-Enzyklopädie gehört zu den am meisten gelesenen Webseiten und hat die Onlinepräsenzen von BBC und CNN hinter sich gelassen. Viele Internetnutzer greifen routinemäßig zu Wikipedia-Informationen,wenn sie etwas in Erfahrungbringen wollen - auch Journalisten nutzen die freie Informationsquelle für ihre Recherchen. Dabei kann buchstäblich jeder bei Wikipedia mitarbeiten - ohne Anmeldezwang, nicht einmal eine E-Mail-Adresse wird benö-tigt. Das verlockt viele, die Möglichkeiten der Wissensdatenbank zu testen, sich selbst in ein besseres Licht, andere jedoch in ein schlechtes Licht zu setzen. Doch die vermeintliche Anonymität täuscht: Bei jeder Änderung eines Artikels wird die IP-Nummer des Autors abgespeichert. Die Aufregung um den Meehan-Artikel ermunterte die Wikipedia-Community, sich die Beiträge genauer anzusehen, die von den Rechnern des US-Parlaments vorgenommen worden waren. Dabei stießen sie auf pikante Details. So wurde der Abgeordnete Eric Cantor beschimpft, dass er ein "bad man" sei und nach Kuhmist stinke. Abgeordnete gestanden Änderungen Mehrere Abgeordnete gaben inzwischen Manipulationen durch ihre Mitarbeiter zu und bereuten öffentlich. Von den mehr als 1000 Beiträgen, die auf Rechner des Repräsentantenhauses zurückverfolgt werden konnten, waren aber die meisten konstruktiv, nur wenige Beiträge offenkundig manipulativ. Schlechter sieht die Bilanz beim US-Senat aus. Etwa ein Drittel der zurückverfolgten Änderungen waren zumindest nicht ganz neutral im Sinne der Wikipedia. Doch das Politikum Wikipedia ist kein US-Phänomen. Auch die Deutsche Politik hatte schon ihr "Wikipediagate". Im Landtagswahlkampf Nordrhein-Westfalen wurde publik, dass von Rechnern des Bundestages aus die Wikipedia-Artikel zu Jürgen Rüttgers und Peer Steinbrück editiert wurden - die Aufregung in der Wikipedia-Gemeinde war groß, Medien berichteten ausführlich. Auch FDP-Generalsekretär Dirk Niebel hat seine Erfahrungen mit der Online-Enzyklopädie gemacht. Als ein Mitarbeiter der FDP-Geschäftsstelle im November 2005 daran gescheitert war, eine Passage über einen Prozess gegen Niebel aus der Wikipedia zu löschen, wandte er sich direkt per Mail an die Wikipedia und bat um Löschung "wahrheitswidriger Behauptungen". Der Erfolg war nur bescheiden: Zwar wurde der Abschnitt umformuliert, die Wikipedianer recherchierten die Vorwürfe aber nochmals und ergänzten sogar eine Quellenangabe."
  13. Sandmann, B.: Informationskompetenz im integrierten Tutorenmodell : Ein Praxisbericht aus den Wirtschaftswissenschaften (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 20) [ClassicSimilarity], result of:
          0.029300818 = score(doc=20,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 20, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=20)
      0.25 = coord(1/4)
    
    Abstract
    Die bibliothekarischen Schulungsangebote der Universitäts- und Landesbibliothek (ULB) Bonn wurden seit dem Jahr 2001 gezielt um fachspezifische Elemente ergänzt. Angestrebt war die Entwicklung eines modularen Vermittlungskonzepts für Informationskompetenz. Während sich die Akzeptanz in einigen geisteswissenschaftlichen Studiengängen schon immer auf einem höheren Niveau befand, war das Interesse in den Wirtschaftswissenschaften dagegen nur sehr schwach ausgeprägt. Im Fachreferat Wirtschaftswissenschaften wurde deshalb nach einer Bestandsanalyse überlegt, auf welche Weise das Angebot von Einführungen in die Literaturrecherche einem größeren Teilnehmerkreis zu erschließen ist. Ergebnis war die Entwicklung und Erprobung eines zweistufigen Konzepts. Im ersten Studienabschnitt werden die Veranstaltungen zur Informationskompetenz in das Curriculum mit Unterstützung von studentischen Multiplikatoren des Fachbereichs integriert, für den zweiten Studienabschnitt bietet das Fachreferat seminarbezogene Veranstaltungen an.
  14. Sechser, O.: Three-layered approach to the semantics of knowledge and information (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 699) [ClassicSimilarity], result of:
          0.029300818 = score(doc=699,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 699, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=699)
      0.25 = coord(1/4)
    
    Source
    Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
  15. Wohlkinger, B.; Pellegrini, T.: Semantic Systems Technologiepolitik in der Europäischen Union (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 790) [ClassicSimilarity], result of:
          0.029300818 = score(doc=790,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 790, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=790)
      0.25 = coord(1/4)
    
    Abstract
    Softwaresysteme sind ein strategischer Schwerpunkt der europäischen IKT-Politik. Mit der Horizontalisierung der Semantic Systems Forschung im Rahmen des 6. Rahmenprogramms unterstreicht die europäische Kommission die Wichtigkeit dieses F&E-Feldes für die Lissabon-Strategie. Über komplementäre nationale Programme und das neue Instrument der Europäischen Technologieplattformen werden zusätzlich Impulse gesetzt, die Forschungskompetenz vor allem im Bereich der kooperativen, industrienahen Semantic Systems F&E weiter auszubauen. Der Artikel gibt einen Überblick über existierende Forschungsprogramme im Bereich der Semantic Systems Forschung auf europäischer Ebene, stellt am Beispiel Österreich ein nationales Förderprogramm vor und untersucht, welche technologiepolitischen Entwicklungsmöglichkeiten offen stehen.
  16. Juraschko, B.: Digital Rights Management und Zwangslizenz (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 939) [ClassicSimilarity], result of:
          0.029300818 = score(doc=939,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 939, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=939)
      0.25 = coord(1/4)
    
    Abstract
    In den letzten Jahrzehnten ließ sich eine zunehmende Verbesserung der Kopiertechnik beobachten. Während analoge Kopien noch Qualitätsunterschiede zum Original aufwiesen, sind digitale Kopien und digitales Original ununterscheidbar geworden. Mitte der 1990er Jahre wurde diese Entwicklung erstmals zu einem ernsten Problem für die Musikindustrie. Zu diesem Zeitpunkt wurden die CDBrenner für Endverbraucher erschwinglich. Ende der 1990er Jahre erfuhren außerdem die so genannten Internet Tauschbörsen immer stärkeren Zulauf, da Internet-Benutzer dort kostenlos Dateien von der Festplatte anderer Benutzer kopieren können. Meist handelt es sich dabei um urheberrechtlich geschützte Musik, Filme oder Software. Dies führte zu einem immensen Anstieg privater Vervielfältigungen. Gleichzeitig geht der Bedarf an gewerblich hergestellten Kopien stärker zurück. Damit verlagert sich insgesamt der Schwerpunkt des Vervielfältigungsvorgangs aus dem gewerblichen in den dezentralen privaten Sektor.
  17. Krause, J.; Mayr, P.: Allgemeiner Bibliothekszugang und Varianten der Suchtypologie : Konsequenzen für die Modellbildung in vascoda (2007) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 998) [ClassicSimilarity], result of:
          0.029300818 = score(doc=998,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 998, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=998)
      0.25 = coord(1/4)
    
    Abstract
    Der Arbeitsbericht konzentriert sich zunächst auf Integrationsmöglichkeiten des Dreiländerkatalogs (DLK), der prototypisch für fachübergreifende Bibliothekskataloge (Allgemeinzugang) in vascoda steht. Der Bericht geht auf interne Designvarianten ein, welche Grundüberlegungen zum sogenannten Allgemeinzugang bebildern. Abschnitt 2 befasst sich mit Vorschlägen zur Erweiterung der Suchtypologie von vascoda. Eine Änderung der fachgebietsorientierten Grundkonzeption von vascoda lässt sich weder aus der Literatursichtung noch aus der vascoda-internen Diskussion anlässlich der Contentintegration von DLK und der Einführung der FAST-Suchmaschinentechnologie für vascoda-Teilmengen ableiten.
  18. Güldner, D.; Wich, M.; Keil, S.: Überblick über aktuelle Programme zur Erschaffung von Ontologien (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 22) [ClassicSimilarity], result of:
          0.029300818 = score(doc=22,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 22, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=22)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge des zunehmenden Einflusses des Semantic Web und der damit einhergehenden Verknüpfung von Informationen wird die Modellierung von Ontologien immer bedeutsamer. Hiermit verbunden ist natürlich auch deren Erweiterung um Instanzen, wodurch immer größere Wissensbasen entstehen. In den letzten Jahren sind sowohl aus akademischem, als auch aus industriellem Hintergrund Programme entstanden, die Ontologie-Autoren bei ihrer Arbeit unterstützen sollen. Nach einer kleinen allgemeinen Einführung in den Ablauf des Ontologiebaus soll hier ein Überblick über einige Tools gegeben werden, die aktuell zur Verfügung stehen, ohne Anspruch auf Vollständigkeit zu erheben.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.337-342
  19. Capellaro, C.; Umlauf, K.: Per Mausklick durch die Bibliothekswissenschaft : Datenbank DABI soll Informationslücke schließen (2006) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 189) [ClassicSimilarity], result of:
          0.029300818 = score(doc=189,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 189, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=189)
      0.25 = coord(1/4)
    
    Abstract
    Für die Suche nach bibliothekarischer Fachliteratur steht seit diesem Jahr die »Datenbank Deutsches Bibliothekswesen (DABI)« zur Verfügung. Sie soll Angebote wie INFODATA und LISA ergänzen. Bereits seit 1995 wird am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität diese bibliografische Sammlung aufgebaut. Darin sind viele der wichtigsten bibliothekarischen Zeitschriften des deutschsprachigen Raumes erschlossen. Was ursprünglich eigentlich als internes Hilfsmittel für die Autoren des Handbuchs »Das Bibliothekswesen der Bundesrepublik Deutschland« gedacht war, steht inzwischen online als kostenloser Service für jeden bereit. Mit DABI soll die Informationslücke geschlossen werden, die seit der Einstellung der DBI-Datenbank DOBI entstanden ist-auch wenn DABI nicht den gleichen Umfang bietet wie das Vorgängermodell.
  20. Franke, F.; Schuller-Zwierlein, A.: Recherche-Hilfe erwünscht, gerne auch online : Ergebnisse einer aktuellen Studierendenbefragung durch Hochschulbibliotheken in Bayern (2007) 0.01
    0.0073252046 = product of:
      0.029300818 = sum of:
        0.029300818 = weight(_text_:und in 1681) [ClassicSimilarity], result of:
          0.029300818 = score(doc=1681,freq=4.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.24258271 = fieldWeight in 1681, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1681)
      0.25 = coord(1/4)
    
    Abstract
    Die Vermittlung von Informationskompetenz gehört in immer stärkerem Maße zu den Kernaufgaben der Hochschulbibliotheken. Voraussetzung für eine erfolgreiche Strategie ist jedoch, dass regelmäßig Kenntnisstand und Defizite der Studierenden überprüft werden. Sechs Jahre nach der SteFi-Studie, die bundesweit grundlegende Mängel in der Informationskompetenz der Studierenden aufgezeigt hatte, hat die Arbeitsgemeinschaft Informationskompetenz im Bibliotheksverbund Bayern daher von November 2006 bis Februar 2007 eine Online-Umfrage unter den Studierenden von neun bayerischen Universitäten und fünf bayerischen Fachhochschulen durchgeführt. An der Befragung nahmen 13792 Studierende teil. Die Ergebnisse sind für die jeweilige Hochschule unterschiedlich repräsentativ. Insgesamt ergeben sich jedoch deutliche Trends, die im vorliegenden Bericht analysiert werden.

Languages

  • d 4221
  • e 486
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 219
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • p 1
  • More… Less…

Themes

Subjects

Classifications