Search (1156 results, page 17 of 58)

  • × language_ss:"e"
  1. Scientometrics pioneer Eugene Garfield dies : Eugene Garfield, founder of the Institute for Scientific Information and The Scientist, has passed away at age 91 (2017) 0.01
    0.009396327 = product of:
      0.037585307 = sum of:
        0.037585307 = weight(_text_:und in 4460) [ClassicSimilarity], result of:
          0.037585307 = score(doc=4460,freq=30.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.33217007 = fieldWeight in 4460, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4460)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch Open Password, Nr.167 vom 01.03.2017 :"Eugene Garfield, Begründer und Pionier der Zitationsindexierung und der Ziationsanalyse, ohne den die Informationswissenschaft heute anders aussähe, ist im Alter von 91 Jahren gestorben. Er hinterlässt Frau, drei Söhne, eine Tochter, eine Stieftochter, zwei Enkeltöchter und zwei Großelternkinder. Garfield machte seinen ersten Abschluss als Bachelor in Chemie an der Columbia University in New York City im Jahre 1949. 1954 sattelte er einen Abschluss in Bibliothekswissenschaft drauf. 1961 sollte er im Fach strukturelle Linguistik promovieren. Als Chemie-Student war er nach eigenen Angaben weder besonders gut noch besonders glücklich. Sein "Erweckungserlebnis" hatte er auf einer Tagung der American Chemical Society, als er entdeckte, dass sich mit der Suche nach Literatur womöglich ein Lebensunterhalt bestreiten lasse. "So I went to the Chairman of the meeting and said: "How do you get a job in this racket?" Ab 1955 war Garfield zunächst als Berater für pharmazeutische Unternehmen tätig. Dort spezialisierte er sich auf Fachinformationen, indem er Inhalte relevanter Fachzeitschriften erarbeitete. 1955 schlug er in "Science" seine bahnbrechende Idee vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und Zusammenhänge zwischen Zitaten deutlich zu machen. 1960 gründete Garfield das Institute für Scientific Informationen, dessen CEO er bis 1992 blieb. 1964 brachte er den Scientific Information Index heraus. Weitere Maßgrößen wie der Social Science Index (ab 1973), der Arts and Humanities Citation Index (ab 1978) und der Journal Citation Index folgten. Diese Verzeichnisse wurden in dem "Web of Science" zusammengefasst und als Datenbank elektronisch zugänglich gemacht. Damit wurde es den Forschern ermöglich, die für sie relevante Literatur "at their fingertips" zu finden und sich in ihr zurechtzufinden. Darüber hinaus wurde es mit Hilfe der Rankings von Garfields Messgrößen möglich, die relative wissenschaftliche Bedeutung wissenschaftlicher Beiträge, Autoren, wissenschaftlicher Einrichtungen, Regionen und Länder zu messen.
    Garfield wandte sich im Zusammenhang mit seinen Messgrößen gegen "Bibliographic Negligence" und "Citation Amnesia", Er schrieb 2002: "There will never be a perfect solution to the problem of acknowledging intellectual debts. But a beginning can be made if journal editors will demand a signed pledge from authors that they have searched Medline, Science Citation Index, or other appropriate print and electronic databases." Er warnte aber auch vor einen unsachgemäßen Umgang mit seinen Messgößen und vor übertriebenen Erwartungen an sie in Zusammenhang mit Karriereentscheidungen über Wissenschaftler und Überlebensentscheidungen für wissenschaftliche Einrichtungen. 1982 übernahm die Thomson Corporation ISI für 210 Millionen Dollar. In der heutigen Nachfolgeorganisation Clarivate Analytics sind mehr als 4000 Mitarbeitern in über hundert Ländern beschäftigt. Garfield gründete auch eine Zeitung für Wissenschaftler, speziell für Biowissenschaftler, "The Scientist", die weiterbesteht und als kostenfreier Pushdienst bezogen werden kann. In seinen Beiträgen zur Wissenschaftspolitik kritisierte er beispielsweise die Wissenschaftsberater von Präsident Reagen 1986 als "Advocats of the administration´s science policies, rather than as objective conduits for communication between the president and the science community." Seinen Beitrag, mit dem er darum warb, die Förderung von UNESCO-Forschungsprogrammen fortzusetzen, gab er den Titel: "Let´s stand up für Global Science". Das ist auch in Trump-Zeiten ein guter Titel, da die US-Regierung den Wahrheitsbegriff, auf der Wissenschaft basiert, als bedeutungslos verwirft und sich auf Nationalismus und Abschottung statt auf internationale Kommunikation, Kooperation und gemeinsame Ausschöpfung von Interessen fokussiert."
  2. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.01
    0.009332187 = product of:
      0.037328746 = sum of:
        0.037328746 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
          0.037328746 = score(doc=2443,freq=58.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32990265 = fieldWeight in 2443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2443)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  3. ¬Der Kongreß 'In der Bildung liegt die Zukunft' legte den Grundstein für eine neue Bildungsdebatte (2000) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 5765) [ClassicSimilarity], result of:
          0.037199806 = score(doc=5765,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 5765, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5765)
      0.25 = coord(1/4)
    
    Abstract
    Am 25. Januar kamen fast 1.000 Teilnehmerinnen und Teilnehmer aus dem weitverzweigten Bildungsbereich zu dem Kongreß zusammen, um eine zukunftsweisende sozialdemokratische Bildungspolitik zu diskutieren, die sowohl der Chancengleichheit als auch der Leistungsförderung verpflichtet ist. schon im Vorfeld des Kongresses hatten einige führende Politikerinnen und Politiker der SPD das Bildungsmanifest 'Bildung entscheidet über unsere Zukunft. Für eine neue Bildungsinitiative' der Öffentlichkeit vorgestellt. Darin werden die bildungspolitischen Traditionen der SPD aufgegriffen und für unsere Zeit neu formuliert. Dabei stellen sie fest: Bildung ist nicht ein Thema unter vielen, sondern auf dem Wege, die soziale Frage des 21. Jahrhunderts zu werden. Bildung ist immer weniger auf eine Lebensphase, Kindheit und Jugend, zu begrenzen und wird in der Zukunft immer mehr als kontinuierliche Herausforderung die Menschen beschäftigen. Bildung wird in allen Teilen der Gesellschaft einen Ort haben. Die Bildungspolitik hat dementsprechend in dem Handeln der Bundesregierung Vorrang
  4. BMBF fördert Langzeitarchivierung für digitale Daten : Deutsche Bibliothek schließt erste Testhase erfolgreich ab (2006) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 5970) [ClassicSimilarity], result of:
          0.037199806 = score(doc=5970,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 5970, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5970)
      0.25 = coord(1/4)
    
    Abstract
    Digital auf elektronischen Datenträgern vorliegende Informationen können derzeit nur schwer über Jahre gespeichert werden. Im Interesse von Wissenschaft und Forschung muss diese komplexe Aufgabe mit innovativer Technik bewältigt werden.
    Content
    Unter Leitung Der Deutschen Bibliothek wurde jetzt erstmals ein neues System zur digitalen Langzeitarchivierung erfolgreich getestet. Es könne problemlos in bestehende Bibliothekssysteme integriert werden, teilte das Bundesministerium für Bildung und Forschung (BMBF) am 16. Dezember 2005 in Berlin mit. Das BMBF förderte die erste Phase des so genannten »kopalSystems« (www.kopal.langzeitarchivierung.de) mit 4,2Millionen Euro. Es soll auf der CeBIT 2006 öffentlich vorgestellt werden. Dabei sollen dem Publikum die Aufgaben Land Funktionen eines Langzeitarchivs digitaler Informationen mit einem »kopal-Demonstrator« anschaulich u und greifbar vertmittelt werden. Das Projekt »kopal« (Kooperativer Aufbau eines Langzeitarchivs digitaler Informationen) widmet sich der langfristigen Bewahrung Land Bereitstellung digitaler Daten. Dabei kooperieren Die Deutsche Bibliothek, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen und die IBM Deutschland. Das von ihnen entwickelte System soll künftig mit standardisierten Schnittstellen kooperativ betrieben werden."
  5. Dawson, J.: Logical dilemmas : the life and work of Kurt Gödel (1996) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 989) [ClassicSimilarity], result of:
          0.037199806 = score(doc=989,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 989, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=989)
      0.25 = coord(1/4)
    
    Abstract
    Die Biographie von Dawson, einem der Mitherausgeber der Gesammelten Werke Gödels, stützt sich auf ein intensives Studium des Nachlasses und zahlreiche Interviews mit Experten und Zeitgenossen Gödels. Sie verbindet eine umfassende Darstellung des persönlichen und kulturellen Hintergrundes mit einer integrierten Geschichte der Logik im 20. Jahrhundert, einer Geschichte, in der Gödel einer der Hauptdarsteller war
    Classification
    SG 174 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Biographien / Einzelbiographien / gm - go
    RVK
    SG 174 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Biographien / Einzelbiographien / gm - go
  6. Höchstötter, N.: Suchverhalten im Web : Erhebung, Analyse und Möglichkeiten (2007) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 1281) [ClassicSimilarity], result of:
          0.037199806 = score(doc=1281,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 1281, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1281)
      0.25 = coord(1/4)
    
    Abstract
    Suchmaschinen stellen eine wichtige Möglichkeit dar, um neue Informationen oder Webseiten im Internet zu finden. Das Online-Marketing wurde dadurch verstärkt auf das Suchmaschinen-Marketing ausgerichtet, bei dem vor allem darauf geachtet wird, dass man in Suchmaschinen gut sichtbar ist. Bei der effizienten Planung von Marketing-Aktionen ist es deshalb wichtig, nicht nur profunde Kenntnisse über die Funktionsweise von Suchmaschinen zu haben, sondern auch das Suchverhalten von Suchmaschinennutzern zu untersuchen und die Ergebnisse geeignet umzusetzen. In diesem Beitrag wird auf die Erforschung des Suchverhaltens im Web und auf die Interaktion von Menschen mit Suchmaschinen ab 1997 eingegangen. In erster Linie werden verschiedene Erhebungsmethoden erklärt und Analysen vorgestellt. Es wird auch diskutiert, wie die Ergebnisse umgesetzt werden können, um die Auffindbarkeit von Webseiten zu verbessern.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.3, S.135-140
  7. Semar, W.: Leistungsvisualisierung im kollaborativen E-Learning mit Hilfe spezieller Kennzahlen (2008) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 2381) [ClassicSimilarity], result of:
          0.037199806 = score(doc=2381,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 2381, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2381)
      0.25 = coord(1/4)
    
    Abstract
    Der bisherige Einsatz elektronischer Kommunikationsforen in der Lehre hat gezeigt, dass die Motivation zur Teilnahme an kollaborativen Prozessen erst geweckt bzw. verstärkt werden muss. Aus diesem Grund wurde im K3-System ein Gratifikationssystem implementiert, das einerseits Anreize zur aktiven Teilnahme schafft und andererseits bestimmte Schlüsselkompetenzen (hier Informations-, Kommunikations- und Teamkompetenz) bei den Teilnehmern entwickelt und verbessert. Im kollaborativen Wissensmanagementsystem K3 wird dies im Wesentlichen dadurch erreicht, dass die Akteure direktes und indirektes Feedback über die von ihnen erbrachten Leistungen erhalten. Ein Alleinstellungsmerkmal des K3-Gratifikationssystems ist die Feedbackgestaltung mit Hilfe der Visualisierung bestimmter Leistungsmerkmale der teilnehmenden Akteure. In diesem Beitrag wird zunächst ganz allgemein beschrieben, wie das K3-Gratifikationssystem in den kollaborativen Prozess eingebunden ist. Aufbauend auf der Entwicklung spezieller Kennzahlen zur Leistungsbeschreibung der teilnehmenden Akteure wird der Schwerpunkt auf die Darstellung verschiedener Visualisierungsformen dieser Leistungskennzahlen gelegt.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.21-31
  8. Brodersen, M.; Germann, N.; Schwens, U.: Informationsveranstaltung zum Thema Netzpublikationen : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 964) [ClassicSimilarity], result of:
          0.037199806 = score(doc=964,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 964, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=964)
      0.25 = coord(1/4)
    
    Abstract
    Am 27. November 2007 veranstalteten die Deutsche Nationalbibliothek (DNB) und der AKEP des Verlegerausschusses des Börsenvereins des Deutschen Buchhandels eine Informationsveranstaltung und einen sich daran anschließenden Expertenworkshop zum Thema Netzpublikationen. Zunächst stand die Vermittlung von Fakten, u. a. zu Ablieferungsverfahren, rechtlichen Rahmenbedingungen und zur Pflichtablieferungsverordnung im Vordergrund. Im weiteren Verlauf des Tages wurde mit Fachleuten der Verlage, insbesondere aus dem Bereich Elektronisches Publizieren, über die Praxis innnerhalb der Verlage und die Auswirkungen der digitalen Pflichtexemplare diskutiert. Zu Veranstaltungsbeginn wurde bereits durch Matthias Ulmer (Ulmer Verlag, Verlegerausschuss im Börsenverein des Deutschen Buchhandels) deutlich, dass sich die Verlage Klarheit hinsichtlich des Ablieferungsverfahrens der elektronischen Pflichtexemplare wünschen, um diese in ihre Pläne zu E-Books im Jahr 2008 einbeziehen zu können. Das Ziel des Workshops bestand im Wesentlichen darin, einen Konsens bezüglich der gemeinsam getragenen Absprachen zu erzielen, die später einem erweiterten Kreis zugänglich gemacht werden sollen. Dies ist ein anspruchsvolles Ziel!
  9. Maßun, M.: Collaborative information management in enterprises (2009) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 91) [ClassicSimilarity], result of:
          0.037199806 = score(doc=91,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 91, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=91)
      0.25 = coord(1/4)
    
    Abstract
    Für Mitarbeiter in Unternehmen gestaltet sich der effiziente Umgang mit einer ständig wachsenden Menge elektronisch verfügbarer Informationen schwierig. Die wesentlichen Herausforderungen aus Anwendersicht sind die Fragmentierung von Informationen, die starren Strukturierungsmöglichkeiten in Datenspeichern und die Isolierung von Wissensarbeit. Das anwenderorientierte System TagIt verbindet aktuelle Ansätze aus dem Persönlichen Informationsmanagement (PIM) und Collaborative Tagging. Die Fragmentierung wid durch Unifizierung von Informationen auf Metadaten- und Zugriffsebene überwunden. Starre Strukturen werden durch freie, multiple Strukturen ersetzt
    BK
    85.20 / Betriebliche Information und Kommunikation
    Classification
    85.20 / Betriebliche Information und Kommunikation
  10. Memmel, T.: User interface specification for interactive software systems : process-, method- and tool-support for interdisciplinary and collaborative requirements modelling and prototyping-driven user interface specification (2009) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 93) [ClassicSimilarity], result of:
          0.037199806 = score(doc=93,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 93, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=93)
      0.25 = coord(1/4)
    
    Abstract
    User-Interface-Spezifikationsprozesse involvieren unterschiedliche Akteure mit jeweils eigenen Ausdrucksmitteln. Dadurch ergeben sich Herausforderungen bei der Umsetzung von Anforderungen in gutes UI-Design. Durch einen Mangel an interdisziplinären und kollaborativen Methoden und Werkzeugen dominieren dabei vor allem textbasierte Spezifikationsdokumente. Diese reichen jedoch mangels Interaktivität nicht aus, um innovative und kreative Prozesse zu unterstützen. In diesem Buch wird eine Spezifikationstechnik vorgestellt, mit der Benutzer-, Aufgaben- und Interaktionsmodelle mit unterschiedlich detailliertem UI-Design verbunden werden. Dadurch entsteht eine erlebbare UI-Simulation, die im Vergleich zu interaktiven UI-Prototypen zusätzlich den visuellen Drill-Down zu Artefakten der Anforderungsermittlung erlaubt. Das Resultat sind interaktive UI-Spezifikationen, mit denen eine höhere Transparenz und Nachvollziehbarkeit im Spezifikationsprozess möglich sind.
  11. Rannharter, N.; Teetor, S.: Maintaining an image data base : a use case based on the Digital Research Archive for Byzantium (DIFAB) (2017) 0.01
    0.009299952 = product of:
      0.037199806 = sum of:
        0.037199806 = weight(_text_:und in 4914) [ClassicSimilarity], result of:
          0.037199806 = score(doc=4914,freq=10.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.3287631 = fieldWeight in 4914, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4914)
      0.25 = coord(1/4)
    
    Abstract
    Mit Metadaten versehene, digital archivierte Bilder sind aufgrund ihrer hohen Komplexität eine ständige Herausforderung für den Aufbau von Metadatenstrukturen und für das Beibehalten von adäquaten Metadatenstandards in Bilddatenbanken. Besonders bei Bildern über eine materielle Kultur zeichnet sich diese Komplexität in den diversen Ebenen ab. Zur Verdeutlichung dieser Problematik dient ein einzelnes Monument mit seiner fotographischen Dokumentation als geisteswissenschaftliches Anwendungsbeispiel aus dem Digitalen Forschungsarchiv Byzanz (DiFAB) der Universität Wien. Unter der grundsätzlichen Berücksichtigung der künftigen Anforderungen und der einfachen Navigation von Metadaten beinhaltet dieser Beitrag u. a. die Herausforderungen mit den diversen analogen und digitalen Formen der Dokumentation, der historischen Geographie, der kulturspezifischen Terminologie sowie mit der kunsthistorischen Bedeutung einer exakten und unscharfen Datierung für Forschungsarchive.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.208-224
  12. Zurück zur Papierkopie : Artikelversand per E-Mail verstößt gegen gültige Urheberrechtsgesetze (2007) 0.01
    0.009196038 = product of:
      0.036784153 = sum of:
        0.036784153 = weight(_text_:und in 1426) [ClassicSimilarity], result of:
          0.036784153 = score(doc=1426,freq=22.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32508966 = fieldWeight in 1426, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1426)
      0.25 = coord(1/4)
    
    Abstract
    Das Oberlandesgericht München hat Anfang Mai im langjährigen Rechtsstreit zwischen dem Deutschen Börsenverein und dem Dokumentenversanddienst subito sein mit Spannung erwartetes Urteil gefällt. Nach Auffassung der Münchener Richter verstößt der Service gegen das geltende Urheberrecht und darf in dieser Form nicht weitergeführt werden. Der Musterprozess hat, laut Mitteilung der Technischen Informationsbibliothek Hannover (TIB), auch Einfluss auf die Angebote anderer Dokumentlieferdienste wie Tiborder, der im Bereich von Technik und Naturwissenschaften eine führende Stellung einnimmt.
    Content
    "Der Versand von kopierten Artikeln aus wissenschaftlichen Fachzeitschriften per E-Mail verstößt gegen geltendes Recht - das ist die Kernaussage des vom Oberlandesgericht München verkündeten Urteils. Vorbehaltlich der Revision durch subito würde dieses Urteil die Forschung am Wissenschaftsstandort Deutschland maßgeblich verändern. Zwei Szenarien sind dabei denkbar. Szenario eins: subito und Anbieter von ähnlich agierenden Diensten wie Tiborder stellen den Dokumentenversand komplett auf den Postweg um. Für Kunden wären damit deutliche Komforteinbußen zur bisherigen elektronischen Lieferung verbunden. Die Wartezeit auf bestellte Fachartikel verlängert sich, zumal sich die Papierkopie nicht direkt am PC aufrufen lässt. Szenario zwei: Die Anbieter einigen sich mit den Verlagen über Lizenzen zur Nutzung von Fachartikeln auch auf dem elektronischen Wege. Dies würde eine deutliche Erhöhung der Preise für solche Dienste mit sich bringen. Uwe Rosemann, Direktor der TIB und der Universitätsbibliothek Hannover, sieht speziell im zweiten Szenario eine echte Gefahr für den Wissenschaftsstandort Deutschland: »Sollten die Verlage Lizenzen aushandeln, dann sicherlich zu Konditionen, die zwangsläufig zu großen Preissteigerungen für die Nutzer führen.« Besonders Wissenschaftler im akademischen Bereich und Studierende könnten sich solche Dienste dann nicht mehr leisten. Dass Universitäten und Hochschulen, die unter enormem Kostendruck stünden, weiterhin im bisherigen Rahmen auf solche Dokumentlieferdienste zugreifen könnten, sei unwahrscheinlich. Rosemann weiter: »Damit wird das Niveau der Literaturversorgung entscheidend gesenkt. Ein wesentliches Ziel der Lizenzverhandlung mit den Verlagen muss daher die Etablierung eines angemessen niedrigen Preises für akademische Kunden sein.«
    Bereits im Juni 2004 hatten der Börsenverein des Deutschen Buchhandels und die Vereinigung internationaler Fachverlage, Stichting STM, Klage gegen das elektronische Verschicken von kopierten beziehungsweise gescannten Artikeln durch subito erhoben. Besonders Fachverlage sehen den von subito angebotenen Dienst kritisch, bieten sie doch mittlerweile selbst Einzelartikel online zum kostenpflichtigen Download an. In seiner Klageerwiderung argumentierte der Dokumentenlieferdienst damit, dass der angebotene Service im Rahmen der Urheberrechtsgesetze liege und es keine Konkurrenzsituation zwischen subito und den Verlagen gebe. Ob subito gegen das jetzt ergangene Urteil des Oberlandesgerichts München in die Revision geht, stand bei Redaktionsschluss noch nicht fest. Zum Hintergrund: Im Jahre 1999 hatte der Bundesgerichtshof der TIB in einem Grundsatzurteil den Kopienversand ausdrücklich erlaubt. Das Oberlandesgericht München und auch der gegenwärtige Regierungsentwurf zur Reform des Urheberrechts würden die vergleichbare elektronische Form des Kopienversands für das elektronische Zeitalter zunichte machen."
  13. Beall, J.: Approaches to expansions : case studies from the German and Vietnamese translations (2003) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2748) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2748,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2748, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2748)
      0.25 = coord(1/4)
    
    Abstract
    Die deutsche und die vietnamesische Übersetzung der DDC entstehen in einer Umgebung, die für den grenzüberschreitenden Umgang mit der DDC günstig ist. Es gibt internationale Gesamtkataloge wie OCLC WorldCat, die die Recherche und das Kopieren von Katalogdaten über Sprachgrenzen hinaus ermöglichen. Bibliothekskataloge sind im Internet verfügbar und werden weltweit benutzt. Viele Nationalbibliotheken nutzen die DDC für Nationalbibliografien, darunter auch solche wie die Nationalbibliotheken von Kanada und der Schweiz, die die DDC in mehr als einer Sprache verwenden.. In internationalen Projekten wie Renardus wird die DDC verwendet. Wenn die DDC über Sprachgrenzen hinaus brauchbar sein soll, dann muss die selbe DDC-Notation in unterschiedlichen Anwendungsbereichen und Sprachen auch dasselbe meinen. Wenn die DDC-Notation 324 in der englischen Standard Edition "The political process" heißt, dann muss damit in den arabischen, französischen, deutschen, griechischen, isländischen, italienischen, norwegischen, russischen, spanischen und vietnamesischen Ausgaben Identisches gemeint sein. Dies bedeutet nicht, dass eine wörtliche Übersetzung erforderlich ist; kulturelle Unterschiede können berücksichtigt werden. So heißt die englische Version von 959.7043 Vietnamese War, 1961-1975 und die vietnamesische Version von 959.7043 Amerikanischer Krieg, 1961-1975; die Notation 959.7043 bezieht sich dennoch auf den selben Krieg. So ist der DDC-basierte Informationsaustausch über die Sprachgrenzen über die Notation 959.7043 weiter möglich.
  14. Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 4654) [ClassicSimilarity], result of:
          0.036679503 = score(doc=4654,freq=56.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 4654, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4654)
      0.25 = coord(1/4)
    
    Abstract
    Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
    Content
    "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
    Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
    Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."
  15. Volltextindexierung von Online-Dissertationen (2006) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 5874) [ClassicSimilarity], result of:
          0.036679503 = score(doc=5874,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 5874, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5874)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Bibliothek hat die bei ihr gespeicherten Online-Dissertationen für die Indexierung durch Suchmaschinen freigegeben. Anbieter entsprechender Suchdienste haben damit die Möglichkeit, den gesamten Inhalt frei zugänglicher Online-Dissertationen automatisch zu erschließen und über Suchmaschinen zugänglich zu machen.
    Content
    "»Benutzer und Anbieter von Suchdiensten fragen immer häufiger Volltextsuchmöglichkeiten nach. Im Rahmen unserer Strategie, die Bestände Der Deutschen Bibliothek an vielen Stellen und in unterschiedlichen Sichten auffindbar und nutzbar zu machen, erweitern wir mit dieser neuen Option die Schnittstelle zwischen Informationssuchenden und Bibliotheksbeständen«, kommentiert Elisabeth Niggemann. Die Digitalisierung von Büchern wird derzeit international diskutiert. Mit dem Angebot der Volltextindexierung im Bereich Online-Dissertationen nutzt Die Deutsche Bibliothek die Möglichkeiten eines Segments ihrer Sammlung, das bereits in elektronischer Form vorliegt. Dabei wird sie die Volltextindexierung zunächst nicht selbst vornehmen, sondern bietet den Betreibern entsprechender Suchmaschinen die Möglichkeit, dies zu tun. Speicherort der Online-Publikationen bleibt in jedem Fall der Archivserver Der Deutschen Bibliothek. Im Bereich der Suchmaschinenbetreiber werden die aus der Indexierung gewonnenen Suchbegriffe mit einem Link auf den Volltext bei Der Deutschen Bibliothek gespeichert. Zu den ersten Systemen, die das neue Angebot nutzen werden, gehören das Forschungsportal als Projekt des Bundesministeriums für Bildung und Forschung und der Internetsuchdienst Google. Weitere Anfragen liegen der Bibliothek vor. Forschende werden in Zukunft die Volltextindexierung der Online-Dissertationen mit unterschiedlichen Zugangswegen nutzen können."
  16. ¬Der Alte Realkatalog der Staatsbibliothek ist online (2006) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 5876) [ClassicSimilarity], result of:
          0.036679503 = score(doc=5876,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 5876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5876)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
    Content
    "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
  17. Calishain, T.; Dornfest, R.; Adam, D.J.: Google Pocket Guide (2003) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 131) [ClassicSimilarity], result of:
          0.036679503 = score(doc=131,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 131, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=131)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: CD Info. 2003, H.10, S.12: "Der Aufwand bei der Internet-Recherche hat sich mit guten Suchmaschinen wie Google verringert. Trotzdem verbringt der Computeranwender eine Menge Zeit mit dem Öffnen und Schließen von Webseiten, die er nie benötigt hätte. Wer die Arbeitsweise und die Möglichkeiten von Google kennt, kann die Suche besser eingrenzen und gelangt oft direkter zur gewünschten Homepage. Der Google Pocket Guide erläutert die Funktionsweise des am meisten verwendeten Suchtools, gibt Tipps zur optimalen Nutzung und liefert gleich einige konkrete Beispiele für deren Verwendung. Neben den Optionen der Erweiterten Suche widmet sich das kleine Taschenbuch auch der Syntax der Website, sodass die Befehle direkt in die Suchmaske eingegeben werden können. Auch Zusatz-Features wie die Bildersuche, der Webkatalog, die Newsgroup-Datenbank sowie der seit Kurzem auch in deutscher Sprache verfügbare News-Bereich werden behandelt. Der Google Pocket Guide erläutert kurz und bündig die wichtigsten Techniken und hilft Zeit und Aufwand zu sparen. Der brandneue Titel ist derzeit leider nur in Englisch verfügbar."
  18. Diepeveen, C.; Fassbender, J.; Robertson, M.: Indexing software (2007) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1742,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1742, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1742)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag handelt von unterschiedlichen Arten verfügbarer Software zur Erzeugung von Registern und untersucht, ob diese dazu benutzt werden können, ein Register nach internationalen Normen zu erstellen. Da oft behauptet wird, dass die Registererstellung mit einem Computer und ohne Einsatz des Menschen durchführbar sei, untersuchen die Autoren, weshalb Indexieren eine Aktivität des Menschen sein muss und weshalb eine automatische Registererstellung kein zufriedenstellendes Register hervorbringen kann. Automatische Registererstellung kann bestenfalls einen Ausgangspunkt zur weiteren Indexierung liefern. Anschließend wird die Möglichkeit der Registererstellung mit allgemein verfügbarer Software untersucht. Dies kann akzeptable Register hervorbringen, wenngleich oft nur auf mühsame Weise. Für den professionellen Indexierer stellt daher spezielle Indexing Software die bevorzugte Option dar. Die drei am meisten benutzten speziellen Indexierungsprogramme werden kurz bewertet. Ausrichtung und Aussehen dieser Programme sind sehr unterschiedlich, aber die Merkmale und Output-Optionen sind sehr ähnlich. Website Indexing ist ein relativ neues Spezialgebiet innerhalb der Disziplin des Indexierens. Zwei Programme - eine Freeware und ein kommerzielles - zur Erstellung von Registern von Websites werden erörtert. Das Fazit insgesamt ist, dass das Registermachen eine Aktivität ist, die intellektuellen Input des Menschen benötigt. Software kann den Input hervorragend verbessern, aber nicht den Anteil des Menschen daran ersetzen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.413-420
  19. BIBFRAME Model Overview (2013) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 1763) [ClassicSimilarity], result of:
          0.036679503 = score(doc=1763,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 1763, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1763)
      0.25 = coord(1/4)
    
    Content
    Vgl. Kommentar Eversberg: Wer dranbleiben will am Puls der Zeit und speziell an der sich dynamisierenden Evolution eines neuen Datenformatkonzepts, der sollte sich langsam beeilen, sich mit BIBFRAME vertraut zu machen: http://bibframe.org Diese Startseite organisiert nun den Zugang zu allem, was schon vorliegt und präsentabel ist, und das ist allerhand. Wer erst mal nur schnuppern will und schauen, wie denn BIBFRAME-Daten wohl aussehen, gehe zur "demonstration area", wo man u.a. auch aufbereitete Daten der DNB findet. Es gibt ferner Online Tools, und darunter einen "Transformation service", dem man eigenes MARC-XML übergeben kann, damit er was draus mache. [Exporte mit unserem MARCXML.APR klappen nicht unmittelbar, man muß zumindest die in der Datei schon vorhandenen zwei Kopfzeilen aktivieren und ans Ende noch </collection> setzen. Und hierarchische Daten machen noch Probleme, die wir uns vornehmen müssen.] Wer jetzt denkt, "Was geht uns das alles an?", der lese die letzte Zeile, die da lautet: "BIBFRAME.ORG is a collaborative effort of US Library of Congress, Zepheira and you!"
  20. Information literacy : infiltrating the agenda, challenging minds (2011) 0.01
    0.009169876 = product of:
      0.036679503 = sum of:
        0.036679503 = weight(_text_:und in 2028) [ClassicSimilarity], result of:
          0.036679503 = score(doc=2028,freq=14.0), product of:
            0.1131508 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05101711 = queryNorm
            0.32416478 = fieldWeight in 2028, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2028)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Mitt VÖB 66(2013) H.2, S.396-388 (K. Niedermair): "Das Thema des vorliegenden Sammelbandes ist Informationskompetenz, sein Ziel ist (so ließe sich der Untertitel paraphrasieren) zweifach. Einerseits zu berichten über den state of art der Vermittlung von Informationskompetenz im tertiären Bildungssektor in Großbritannien, detaillierte Einblicke zu geben in Initiativen, Projekte und best practices. Andererseits theoretische Grundlagen und Perspektiven zu formulieren für künftige Projektaktivitäten und -anträge. Denn - das ist die Kernaussage des Buches - im Kontext der Informationsgesellschaft und des sich verändernden Bildungs- und Hochschulwesens erfordert die Vermittlung von Informationskompetenz neue Strategien und Konzepte, in inhaltlicher Hinsicht, in politischer, aber auch was didaktische Herangehensweisen betrifft. ... Das Buch greift die Herausforderungen auf, die für die Vermittlung von lnformationskompetenz angesichts der weltweiten Veränderungen im Hochschulwesen entstehen. Das Buch setzt auf neue Lehr-/Lernmethoden, es mahnt im Sinne eines "call to the arms" (S. 10) Initiativen und Projekte ein, denen man Aufmerksamkeit schenken sollte, um die Kernaufgabe der Bibliothek, lnformationskompetenz zu vermitteln, im 21. Jahrhundert neu gestalten zu können. Dazu ein abschließendes Zitat: "We cannot predict the future but we believe that defining the 21st century librarian is about being a teacher and educator not a custodian and keeper of the tomes; it is about, through teaching, turning information into knowledge." (S. 12)"

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 734
  • m 299
  • el 96
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications