Search (1873 results, page 58 of 94)

  • × year_i:[2010 TO 2020}
  1. Lernwelt Öffentliche Bibliothek : Dimensionen der Verortung und Konzepte (2018) 0.01
    0.0098519465 = product of:
      0.039407786 = sum of:
        0.039407786 = weight(_text_:und in 394) [ClassicSimilarity], result of:
          0.039407786 = score(doc=394,freq=20.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3099608 = fieldWeight in 394, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=394)
      0.25 = coord(1/4)
    
    Abstract
    Öffentliche Bibliotheken erhalten eine immer größere Relevanz als Lernort. Sowohl inhaltliche Angebote als auch räumliche Strukturen bieten Lernenden vielfältige Nutzungsoptionen, die für Außenstehende allerdings oft nur schwer überschaubar sind. Dieser Band versucht die beiden Perspektiven Innensicht und Außensicht zu moderieren. Auf der einen Seite geht es darum, aktuelle Entwicklungen bezogen auf Konzeptionen der inhaltlichen Ausrichtung von Öffentlichen Bibliotheken als Lernwelt aufzuzeigen, Entwicklungen von Raumstrukturen in den Blick zu nehmen sowie Anforderungen an das Personal zu identifizieren. Auf der anderen Seite geht es darum, die Entwicklungen so darzustellen, dass sie für Diskurse in anderen Bildungsbereichen anschlussfähig sind.
    Content
    I. Historische und gesellschaftliche Kontexte Gesellschaftliche Veränderungsprozesse und Lebenslanges Lernen / Stang, Richard -- Lernort als Leitbild -- ; Zielgruppen Öffentlicher Bibliotheken / Schade, Frauke II. Angebots- und Vermittlungskonzepte Zur Etablierung einer Bibliothekspädagogik / Keller-Loibl, Kerstin -- Dimensionen der Learning und Teaching Library / Sühl-Strohmenger, Wilfried -- Das Spiralcurriculum als Eckpfeiler / Marci-Boehncke, Gudrun -- Lernbegleitung und Lerncoaching / Singer, Eva-Maria / Diwischek, Astrid -- Bibliothekspädagogische Praxis III. Lernort- und Raumkonzepte -- ; Zur Relevanz physischer Verortung / Umlauf, Konrad / Stang, Richard -- Be a Maker, not a Taker! / Vogt, Hannelore / Petzold, Judith -- Digitale Lernoptionen als Add On / Stang, Richard -- Flexible Lernraumoptionen als Chance IV. Kooperationsfelder -- ; Erste Schritte begleiten / Brandt, Susanne -- Wege einer Bildungspartnerschaft / Reckling-Freitag, Kathrin -- Erwachsene im Fokus / Stang, Richard -- Lernen 60plus / Homann, Benno V. Perspektiven -- ; Positionierungen neu gestalten / Umlauf, Konrad / Stang, Richard
    Footnote
    Rez. in: Bibliothek: Forschung und Praxis. 43(2109) H.2, S.357-359 (J.-P. Barbian). Vgl. auch die kommentierenden Rezension unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=768&wysijap=subscriptions&user_id=1045 und https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=777&wysijap=subscriptions&user_id=1045 (W. Bredemeier).
  2. Brügger, N.: ¬The archived Web : doing history in the digital age (2018) 0.01
    0.0098519465 = product of:
      0.039407786 = sum of:
        0.039407786 = weight(_text_:und in 679) [ClassicSimilarity], result of:
          0.039407786 = score(doc=679,freq=20.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3099608 = fieldWeight in 679, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=679)
      0.25 = coord(1/4)
    
    BK
    15.03 Theorie und Methoden der Geschichtswissenschaft
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    NB 2800 - Geschichte / Geschichte als Wissenschaft und Unterrichtsfach / Einführung in die Geschichtswissenschaft und das Studium der Geschichte / Arbeitstechniken für Historiker
    AN 95400 - Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
    15.03 Theorie und Methoden der Geschichtswissenschaft
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RVK
    NB 2800 - Geschichte / Geschichte als Wissenschaft und Unterrichtsfach / Einführung in die Geschichtswissenschaft und das Studium der Geschichte / Arbeitstechniken für Historiker
    AN 95400 - Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Speicherung von Informationen
  3. Bredack, J.: Terminologieextraktion von Mehrwortgruppen in kunsthistorischen Fachtexten (2013) 0.01
    0.009828828 = product of:
      0.039315313 = sum of:
        0.039315313 = weight(_text_:und in 2054) [ClassicSimilarity], result of:
          0.039315313 = score(doc=2054,freq=26.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.3092335 = fieldWeight in 2054, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2054)
      0.25 = coord(1/4)
    
    Abstract
    Mit Hilfe eines algorithmisch arbeitenden Verfahrens können Mehrwortgruppen aus elektronisch vorliegenden Texten identifiziert und extrahiert werden. Als Datengrundlage für diese Arbeit dienen kunsthistorische Lexikonartikel des Reallexikons zur Deutschen Kunstgeschichte. Die linguistisch, wörterbuchbasierte Open-Source-Software Lingo wurde in dieser Studie genutzt. Mit Lingo ist es möglich, auf Basis erstellter Wortmuster, bestimmte Wortfolgen aus elektronisch vorliegenden Daten algorithmisch zu identifizieren und zu extrahieren. Die erstellten Wortmuster basieren auf Wortklassen, mit denen die lexikalisierten Einträge in den Wörterbüchern getaggt sind und dadurch näher definiert werden. So wurden individuelle Wortklassen für Fachterminologie, Eigennamen, oder Adjektive vergeben. In der vorliegenden Arbeit werden zusätzlich Funktionswörter in die Musterbildung mit einbezogen. Dafür wurden neue Wortklassen definiert. Funktionswörter bestimmen Artikel, Konjunktionen und Präpositionen. Ziel war es fachterminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu extrahieren unter der gezielten Einbindung von Funktionswörtern. Anhand selbst gebildeter Kriterien, wurden die extrahierten Mehrwortgruppen qualitativ analysiert. Es konnte festgestellt werden, dass die Verwendung von Funktionswörtern fachterminologische Mehrwortgruppen erzeugt, die als potentielle Indexterme weitere Verwendung im Information Retrieval finden können.
    Mehrwortgruppen sind als lexikalische Einheit zu betrachten und bestehen aus mindestens zwei miteinander in Verbindung stehenden Begriffen. Durch die Ver-bindung mehrerer Fachwörter transportieren sie in Fachtexten aussagekräftige Informationen. Sie vermitteln eindeutige Informationen, da aus den resultierenden Beziehungen zwischen den in Verbindung stehenden Fachbegriffen die inhaltliche Bedeutung eines Fachtextes ersichtlich wird. Demzufolge ist es sinnvoll, Mehrwort-gruppen aus Fachtexten zu extrahieren, da diese die Inhalte eindeutig repräsentieren. So können Mehrwortgruppen für eine inhaltliche Erschließung genutzt und beispiels-weise als Indexterme im Information Retrieval bereitgestellt werden. Mehrwortgruppen enthalten Informationen eines Textes, die in natürlicher Sprache vorliegen. Zur Extraktion von Informationen eines elektronisch vorliegenden Textes kommen maschinelle Verfahren zum Einsatz, da Sprache Strukturen aufweist, die maschinell verarbeitet werden können. Eine mögliche Methode Mehrwortgruppen innerhalb von elektronisch vorliegenden Fachtexten zu identifizieren und extrahieren ist ein algorithmisches Verfahren. Diese Methode erkennt Wortfolgen durch das Bilden von Wortmustern, aus denen sich eine Mehrwortgruppe in einem Text zusammensetzt. Die Wortmuster repräsentieren somit die einzelnen Bestandteile einer Mehrwortgruppe. Bereits an mathematischen Fachtexten wurde dieses Verfahren untersucht und analysiert. Relevante Mehrwortgruppen, die ein mathematisches Konzept oder mathe-matischen Inhalt repräsentierten, konnten erfolgreich extrahiert werden. Zum Einsatz kam das Indexierungssystem Lingo, mit dessen Programmodul sequencer eine algorithmische Identifizierung und Extraktion von Mehrwortgruppen möglich ist. In der vorliegenden Arbeit wird dieses algorithmische Verfahren unter Einsatz der Software Lingo genutzt, um Mehrwortgruppen aus kunsthistorischen Fachtexten zu extrahieren. Als Datenquelle dienen kunsthistorische Lexikonartikel aus dem Reallexikon zur Deutschen Kunstgeschichte, welches in deutscher Sprache vorliegt. Es wird untersucht, ob positive Ergebnisse im Sinne von fachterminologischen Mehrwort-gruppen mit kunsthistorischen Inhalten erzeugt werden können. Dabei soll zusätzlich die Einbindung von Funktionswörtern innerhalb einer Mehrwortgruppe erfolgen. Funktionswörter definieren Artikel, Konjunktionen und Präpositionen, die für sich alleinstehend keine inhaltstragende Bedeutung besitzen, allerdings innerhalb einer Mehrwortgruppe syntaktische Funktionen erfüllen. Anhand der daraus resultierenden Ergebnisse wird analysiert, ob das Hinzufügen von Funktionswörtern innerhalb einer Mehrwortgruppe zu positiven Ergebnissen führt. Ziel soll es demnach sein, fach-terminologische Mehrwortgruppen mit kunsthistorischen Inhalten zu erzeugen, unter Einbindung von Funktionswörtern. Bei der Extraktion fachterminologischer Mehrwortgruppen wird im Folgenden insbesondere auf die Erstellung von Wortmustern eingegangen, da diese die Basis liefern, mit welchen das Programmmodul sequencer Wortfolgen innerhalb der kunst-historischen Lexikonartikel identifiziert. Eine Einordung der Indexierungsergebnisse erfolgt anhand selbst gebildeter Kriterien, die definieren, was unter einer fach-terminologischen Mehrwortgruppe zu verstehen ist.
    Content
    Beiliegende CD enthält die Arbeitsergebnisse und Hilfsdateien
    Footnote
    Bachelorarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften, Fachhochschule Köln.
    Imprint
    Köln : Fachhochschule, Fakultät für Informations- und Kommunikationswissenschaften
  4. Beuth, P.: Nicht genug für die Weltherrschaft : Watson soll uns reich und gesund machen (2010) 0.01
    0.009634024 = product of:
      0.038536098 = sum of:
        0.038536098 = weight(_text_:und in 340) [ClassicSimilarity], result of:
          0.038536098 = score(doc=340,freq=34.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30310458 = fieldWeight in 340, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=340)
      0.25 = coord(1/4)
    
    Abstract
    Erst besiegt ein Computer einen Menschen beim Schach, dann bei Jeopardy. Gewinnt nun bald eine Maschine bei Schlag den Raab? Und wie lange dauert es noch, bis Computer die Weltherrschaft übernehmen?
    Content
    "Nicht mehr lange, glaubt Jeopardy-Kandidat Ken Jennings, der im Wettstreit gegen den IBM-Computer Watson chancenlos blieb. "Ich grüße unsere neuen Computer-Herrscher", schrieb er bei der letzten Frage in sein Antwortfeld. Ziemlich lange, glaubt Stefan Wrobel, Leiter des Fraunhofer-Institutes für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin. Das Gespräch mit der Frankfurter Rundschau muss er per Handy führen, der Strom in seinem Institut ist komplett ausgefallen. "So viel zum Thema Computerherrschaft", sagt er. "Watsons Sieg bei Jeopardy war beeindruckend", findet allerdings auch der Experte für Datenanalyse und Künstliche Intelligenz. Aber der IBM-Computer sei nur eine auf die Spitze getriebene Spezialanwendung aus Technologien, die es im Alltag längst gebe, etwa bei Suchmaschinen. Sein Institut arbeitet selbst bei einem Programm mit, das die semantische Technologie weiter in den Alltag integrieren soll. Es heißt Theseus und wird vom Bundeswirtschaftsministerium unterstützt. Ziel ist ein "Internet der Dienste": Wer dort eingibt "Ich möchte von Berlin nach Hamburg ziehen", soll von dem Computerprogramm die passenden Wohnungs- und Umzugsangebote sowie die Anmeldung beim Bürgeramt vorgeschlagen und koordiniert bekommen. Die Grenze der Computer bleibt laut Wrobel aber auch in Zukunft dort, "wo es darum geht, Informationen neu zu schaffen oder auf kreative Weise neu zu kombinieren."
    Immerhin sollen Watson und seine Nachfolger die Menschen reich und gesund machen. Denn bei einigen möglichen Einsatzgebieten hat IBM schon relativ weitgehende Visionen: Watson könne etwa helfen, die Entwicklung von Wirtschaft und Finanzen besser vorherzusehen, um zum Beispiel drohende Krisen früher zu erkennen. Oder einfach, um an der Börse Geld zu verdienen, auch wenn IBM das nicht erwähnt. Dazu muss der Computer verstehen, welche Botschaften sich in Zeitungsartikeln, Blogs und Pressemitteilungen über Wirtschafts- und Finanzthemen verbergen und wie diese sich auf die harten Zahlen auswirken werden, sagt Projektleiter David Ferrucci. Vielleicht wird Watson auch Geheimagent. Nach Angaben des Fachmagazins New Scientist arbeiten im Forschungsteam auch Spezialisten der Defense Advanced Research Projects Agency (DARPA), die dem Pentagon untersteht. Militärs und Geheimdienste interessieren sich demnach für Watsons Textanalysefähigkeiten. Zudem soll Watson in Zukunft auch Ärzte bei der Diagnose und Behandlung von Patienten unterstützen. "Die Menge an validen, nützlichen Informationen, die einem Patienten wirklich helfen können, ist explodiert", sagt Medizinprofessor Herbert Chase von der Columbia University in einem IBM-Video. "Es ist unmöglich, da immer mitzukommen. Also brauchen wir Werkzeuge, die das beste davon ausfindig machen. Das meiste davon liegt in natürlicher Sprache vor. Und da liegt die Stärke von Watson." IBM-Forschungsdirektor John E. Kelly III. verspricht: "Innerhalb von Sekunden werden Ärzte in aller Welt herausfinden können, welche die beste Behandlung ist."
    Ethisch wäre ein "Dr. Watson" nicht unbedenklich. Was, wenn er sich bei einer Diagnose irrt? Eine Quizrunde zu verlieren, ist das eine. Aber ein Menschenleben? Immerhin hat Watson in einer Testrunde behauptet, die erste Frau im Weltall wäre Wonder Woman gewesen - eine Comicfigur. Informatik-Professor Wrobel glaubt, dass sich diese Fragen nicht stellen werden, da Computer auch in Zukunft nur Ratgeber, nicht aber Entscheider bleiben würden: "Wichtig ist der Begriff der Assistenz. Wir werden wenige Systeme sehen, die völlig autonom handeln." Professor Peter Slovovits, Experte für Künstliche Intelligenz sowie Medizintechnik am Massachusetts Institute of Technology (MIT) sieht das ähnlich: "Ich sehe Rechner wie Watson als hochspezialisierte Assistenten, die durch ihre Art der Informationsbeschaffung aus Ärzten bessere Ärzte machen", sagte er der Frankfurter Rundschau. "Sie können aus Patienten aber auch bessere Patienten machen, indem sie die Menschen zu differenzierteren Beobachtern ihrer eigenen Gesundheit machen." Nach Meinung von Wrobel geht es nicht darum, dass die Computer den Menschen ersetzen, sondern eher um Zeitgewinn für den Benutzer: "Das ist auch für die Wirtschaft wichtig: Nur wer die riesigen Mengen an vorhandenen Daten in seinem Unternehmen und im Internet am besten nach den relevanten Informationen durchsuchen kann, wird Erfolg haben.""
  5. Berg, L.: Pablo will es wissen : Lernen mit Salman Khan (2012) 0.01
    0.009602491 = product of:
      0.038409963 = sum of:
        0.038409963 = weight(_text_:und in 1228) [ClassicSimilarity], result of:
          0.038409963 = score(doc=1228,freq=76.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30211246 = fieldWeight in 1228, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1228)
      0.25 = coord(1/4)
    
    Content
    "East Palo Alto ist ein gefährlicher Ort. Baufällige Häuser, Vorgärten voller Müll und oft Schießereien auf offener Straße. Hier, fünfzig Kilometer von San Francisco entfernt, leben Immigranten aus Mexiko und viele verarmte schwarze Familien. Wer einen Job hat, arbeitet als Handlanger oder Hausmädchen für die Reichen im nahe gelegenen Silicon Valley. Die wohnen in den Villen um die Eliteuniversität Stanford oder bei den Zentralen von Apple, Google und anderen Weltfirmen. Früher gab es in East Palo Alto keine weiterführende Schule. Wer die High School besuchte, wurde im Bus in die besseren Viertel gebracht. Aber dann wurde Mitte der Neunzigerjahre die Eastside Preparatory School eröffnet, mitten im sozialen Brennpunkt. Es ist eine kleine, propere Anlage mit einstöckigen Gebäuden, die im Karree um eine Rasenfläche stehen. Gleich hinter der Eingangstür liegt das freundlich eingerichtete Büro der Schulsekretärin. Am Morgen begrüßt sie jedes der rund dreihundert Kinder und macht dann auch gleich einen Strich in der Anwesenheitsliste. Die Eastside Prep, so der Kurzname, ist eine private Ganztagsschule, die sich vorwiegend aus Spenden finanziert und die nur Kinder aus Familien aufnimmt, in denen es bisher noch niemand auf ein College geschafft hat. Es ist eine besondere Schule, mit kleinen Klassen, individueller Förderung und idealistischen Lehrern. Für die Schüler ist sie ein Sprungbrett in ein besseres Leben, und schon Tausende haben ihre Chance genutzt.
    Vier Schüler an einem Tisch Der vierzehnjährige Pablo ist fest entschlossen, etwas aus seinem Leben zu machen. Das wollen auch seine Eltern. Sie sind aus Mexiko in die USA gezogen, um ihren drei Kindern eine gute Ausbildung zu ermöglichen. Pablo will Software-Ingenieur werden, denn das ist ein sicherer Beruf mit Prestige und gutem Gehalt. Er ist ein ernster Junge, und er weiß, dass er einen langen Weg vor sich hat: erst die High School, dann das College und vielleicht sogar ein Studium auf der Universität. Zum Glück ist er sehr gut in der Schule, vor allem in Mathe. Immer wieder kommen Mitschüler zu ihm und suchen seinen Rat. Die Tische im Klassenraum sind so angeordnet, dass jeweils vier Schüler zusammensitzen, einige Kinder schreiben in ihre Hefte, andere arbeiten an Netbooks, die die Schule zur Verfügung stellt, in manchen Gruppen wird leise diskutiert. Die Lehrerin Jen Johnson, 32, sitzt mit zwei Schülern zusammen, sie üben quadratische Gleichungen. Die beiden haben den letzten Test nicht bestanden und brauchen jetzt Nachhilfe. Hin und wieder geht Jen zur Tafel und erklärt eine Aufgabe von allgemeiner Bedeutung, es folgt eine kurze Frage-Antwort-Runde, dann setzt sie sich wieder zu ihren Förderschülern. In ihrer Klasse ist es nicht zu laut und nicht zu leise, die Atmosphäre ist gelöst und doch ist konzentriertes Arbeiten möglich. Wie in einem schönen Café, an einem besonders guten Tag. Dass heute eine Besucherin dabei ist, scheint die Kinder nicht zu stören. Sie sind Gäste gewöhnt. Politiker waren schon bei ihnen, auch etliche Wissenschaftler. Könnte es sein, dass hier, im Umfeld des Silicon Valley, ein Zukunftsmodell zu besichtigen ist? Dass ausgerechnet in dieser schäbigen Gegend etwas entstanden ist, was Bildungsexperten für die Welt von morgen fordern: Schulen, in denen jedes Kind nach seiner Fasson gefördert wird und eigenständig lernen kann. Wo es nicht ums Aussortieren von Versagern, sondern um den Erfolg aller geht. Auch wenn sie eigentlich die geborenen Verlierer sind, wie die Kinder von East Palo Alto.
    Filme von verblüffender Schlichtheit Seit Anfang des Schuljahres erproben Jen und ihre Kollegen eine neue Form des Online-Unterrichts. Sie arbeiten dabei mit der Khan Academy zusammen, einer rasch expandierenden Bildungseinrichtung mit Sitz in Mountain View, im Zentrum des Silicon Valley. Ihr Kapital sind mehr als dreitausend selbst produzierte Videos mit kurzen Lektionen, vor allem in Mathematik und in den Natur- und Wirtschaftswissenschaften. Anders als manch andere Nachhilfe im Internet ist die Khan Academy kostenlos: Die Videos stehen bei Youtube, jeder kann sie ohne Anmeldung nutzen. Die Filme sind von verblüffender Schlichtheit. Oft ist nur die gutturale Stimme von Salman Khan zu hören, einem Mittdreißiger, der einmal Hedgefonds-Manager gewesen ist und sein pädagogisches Talent entdeckt hat, als er seiner Cousine Nachhilfeunterricht in Mathematik gab. Zu sehen gibt es in seinen Videos nicht viel: Oft sind es bloß Zahlen, Zeichen und Formeln, die wie von Zauberhand geschrieben auf einer Tafel erscheinen. Aber Salman Khan kann wunderbar erklären. Und er widmet sich den Problemen der Addition ebenso hingebungsvoll wie der Wahrscheinlichkeitsrechnung: Schritt für Schritt, mit trockenem Humor und bildhaften Beispielen. Etwa fünf Millionen Nutzer zählt die Academy pro Monat, Menschen aus mehr als zweihundert Ländern rufen die Seiten auf, deren Lektionen von Enthusiasten aus dem Englischen in die jeweiligen Landessprachen übersetzt werden - unter anderem ins Deutsche. Bisher hatten die Khan Academy und die traditionellen Schulen wenig miteinander zu tun, jetzt sollen die Videos in den Unterricht integriert werden. Davon verspricht sich die Bill-Gates-Stiftung, die das Projekt mit Millionensummen unterstützt, einen Qualitätsschub für Bildungseinrichtungen in aller Welt: Das Online-Curriculum aus dem Silicon Valley könnte Taktgeber und Messlatte sein, vor allem in ärmeren Ländern. Aber zunächst muss getestet werden, wie die Verzahnung mit dem Schulunterricht funktioniert. Zu diesem Zweck begann vor einem Jahr ein Großversuch in hundert Klassen im Großraum San Francisco. Die Eastside Prep ist mit dabei. Pablo, das Mathe-As, schätzt die Khan-Lektionen. "Wenn ich etwas vergessen habe, schaue ich mir das passende Video an, dann bin ich gleich wieder im Stoff." Seine Lehrerin verteilt zu Beginn jeder neuen Unterrichtseinheit selbst erarbeitete Mappen mit Aufgaben aus dem Lehrbuch und Hinweisen auf passende Khan-Videos. Auf diese Weise verknüpft sie den staatlichen Lehrplan mit dem Zusatzangebot im Internet.
    Kaum schlechte Noten Auch die Filme enthalten Übungen, und die Schüler sind aufgefordert, diese während des Unterrichts zu absolvieren. Jen Johnson kann mit ihrem Laptop verfolgen, wie ihre Schüler abschneiden, und sie bemerkt sofort, dass Alexandro nicht mitkommt. "Ich werde morgen mit ihm arbeiten", sagt sie. "Früher hätte ich seine Probleme erst nach einer Fünf im Test erkannt." Schlechte Noten gebe es in diesem Schuljahr kaum. Vor der Klassenarbeit würden die Schüler an ihren Schwächen arbeiten - mit den Videos hätten sie ein gutes Werkzeug dafür. Die kompakte Form der Lektionen, die sofortige Rückmeldung bei Fehlern, all das kommt den Bedürfnissen einer Jugend, die mit dem Internet aufgewachsen ist, entgegen. Und was ist mit der Idee, die Online-Lektionen als alleiniges Lehrmittel einzusetzen? Das wäre nicht sinnvoll, heißt es an der Eastside Prep. Nach wie vor seien Lehrer nötig, um den Kurs vorzugeben und zu halten, zu motivieren und Hilfe zu leisten. Aber verzichten möchte an dieser Schule offenbar niemand mehr auf die Khan'sche Kollektion. Sie ist einfach zu gut, um Löcher zu stopfen. Mathematik, so sagt Salman Khan in seinen Vorträgen gern, Mathematik sei bei den meisten Menschen ein großer Emmentaler: Hier und da gibt es etwas Substanz, aber zwischendrin ist viel Luft. Und die Khan Academy, das sei die Verwandlung von Luft in Substanz. Akademische Alchemie sozusagen. Eine große Bühne bot sich dem Internetlehrer im vergangenen Jahr bei einem renommierten Online-Talk. Steve Jobs ist dort aufgetreten, Isabel Allende und Al Gore. Khans Beitrag inspirierte den deutschen Informatiker Sebastian Thrun dazu, das Konzept auf die Hochschulbildung zu übertragen (siehe nebenstehenden Beitrag). Die Khan Academy selbst konzentriert sich weiter auf die Schule und zwar mit Blick auf die ganze Welt. An dieser Stelle kommt Bilal Musharraf ins Spiel. Der introvertierte Mann fungiert sozusagen als Khans Außenminister. Mit 18 Jahren kam Bilal zum Studium in die USA - und ist geblieben. Sein Vater ist der ehemalige pakistanische Präsident General Pervez Musharraf, doch wenn die Rede auf seine Familie kommt, wird der Sohn einsilbig. Viel lieber spricht er über Entwicklungspolitik und wie wichtig es wäre, in Breitband-Internetverbindungen für Drittweltländer zu investieren, die dann für den Online-Unterricht genutzt werden könnten. Die Academy-Videos sind als Teil eines weltumspannenden Curriculums denkbar. Vorausgesetzt, dass die versprochenen Fördermittel fließen, werden die Kurse bald komplett in die zehn wichtigsten Sprachen übersetzt, auch ins Deutsche. Denn East Palo Alto gibt es überall. Zum Glück auch Lehrer wie Jen Johnsonund Kinder wie Pablo."
  6. Wiesenmüller, H.: Daten härter arbeiten lassen und besser präsentieren : Sacherschließung und Normdaten in Online-Katalogen (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 3902) [ClassicSimilarity], result of:
          0.038156424 = score(doc=3902,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 3902, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3902)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem Umstieg von konventionellen Zettelkatalogen auf Online-Kataloge ist - so die gängige Meinung - alles viel einfacher und komfortabler geworden. Wirklich? Bei der inhaltlichen Recherche scheint im Opac vieles eher schwieriger geworden zu sein. Dies liegt nicht etwa an einem Versagen der Regelwerke, sich auf die Online-Umgebung einzustellen, sondern vor allem daran, dass man sich viel zu wenig darum bemüht hat, adäquate Formen für Recherche und Anzeige von Sacherschließungsdaten in Online-Katalogen zu finden. Auch das Potenzial der bibliothekarischen Normdateien wird in den Online-Katalogen bisher nur bruchstückhaft ausgeschöpft. Ein erschreckend hoher Anteil der bibliothekarischen Erschließungsleistung kommt nicht bei unseren Kunden an - können wir uns das wirklich leisten? Es ist überfällig, sich intensiv mit der Gestaltung unserer Retrievalwerkzeuge zu beschäftigen, um das Input-Output-Verhältnis unserer Dienstleistung in eine gesunde Balance zu bringen und einen echten Mehrwert für unsere Benutzer zu schaffen. Neben vielen anderen wichtigen Aspekten, die man gemeinhin mit dem »Katalog 2.0« oder »next generation catalogue« verbindet, muss deshalb der bibliothekarischen Sacherschließung und den Normdateien besondere Aufmerksamkeit gelten: Die Daten müssen nicht nur besser präsentiert werden, man muss sie auch »härter arbeiten« lassen als bisher.
  7. Klauß, H.: Aussonderung oder Aufstellung im Lesesaal bzw. im Magazin : vorläufiges Konzept der UB der Europa-Universität Viadrina (EUV) (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 565) [ClassicSimilarity], result of:
          0.038156424 = score(doc=565,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 565, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=565)
      0.25 = coord(1/4)
    
    Abstract
    Der Aufsatz gilt der Frage, wo Medien aufgestellt werden können und unter welchen Bedingungen diese ausgesondert werden sollten. Letzteres soll möglichst konkret gefasst werden. Die Debatten um Aussonderung sind nicht neu, aber oftmals praktisch wirkungslos oder zumindest nicht ganz so wirkungsvoll wie gehofft, weil diese Debatten nicht hinreichend konkret geführt wurden. Die Brisanz des Themas ist in den letzten Jahren angesichts der im Allgemeinen negativen Entwicklung der Budgets von Bibliotheken und die Tendenz, statt Print- vermehrt E-Medien zu erwerben, entschärft, aber keinesfalls erloschen. Zunächst zum Begriff "Konzept": Dieser Begriff bezeichnet einen klar umrissenen Plan für ein Vorhaben. Der allein stehende und damit gänzlich unrelativierte Begriff "Konzept" könnte daher Erwartungen wecken, die ich mit dem Adjektiv "vorläufig" relativieren und damit bremsen möchte, denn wir haben keinen Plan, der von tief schürfenden, gar jahrelangen Erfahrungen geprägt ist: Wir haben ein Problem, auf das zu reagieren wir gezwungen sind. Ich bilde mir nicht ein, hierzu alles gelesen zu haben, weiß aber, dass hier neben theoretischen Überlegungen auch praktische Erfahrungen wichtig sind. Für entsprechende Mitteilungen wäre ich daher dankbar und erbitte sie hiermit. In allen Bibliotheken muss entschieden werden, ob vorhandene Literatur im Lesesaal oder im Magazin aufgestellt oder aber ausgesondert wird. Wenn Bücher nicht ausgesondert werden, sollte fachintern geregelt werden, welche Bücher im Lesesaal und welche im Magazin aufgestellt werden. Diese partielle Freizügigkeit kann jedoch nur in den unten angeführten Grenzen realisiert werden!
  8. Ex Libris: Primo Version 3.0 jetzt erhältlich (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 654) [ClassicSimilarity], result of:
          0.038156424 = score(doc=654,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 654, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=654)
      0.25 = coord(1/4)
    
    Abstract
    Die Primo Version 3.0 ist das Ergebnis einer kontinuierlichen Zusammenarbeit mit der rasch wachsenden internationalen Primo-Community. Durch die Kombination aus einer vereinfachten, modernisierten Benutzeroberfläche, der Integration der Opac-Funktion und den gestützten nahtlosen Suchoptionen innerhalb des Primo-Central-Index für wissenschaftliche Materialien ermöglicht Primo 3.0 den Nutzern die Interaktion mit der Bibliothek über eine einzige Benutzeroberfläche.
    Content
    "Auf der Ergebnisseite bekommen die Benutzer nun sämtliche Informationen zu einem Objekt angezeigt - den kompletten Datensatz mit allen Einzelheiten; Angaben zur Verfügbarkeit; eine Preview (für Online-Artikel); Tags, Bewertungen und Rezensionen; detaillierte Informationen zur Lokalisierung; Empfehlungen auf Grundlage von wissenschaftlichen Benutzermustern und vieles mehr. Primo bietet außerdem den nahtlosen Zugriff auf Primo Central, eine allumfassende Datensammlung wissenschaftlicher Materialien, die von Ex Libris in einem »Cloud Computing«-Umfeld gehostet wird. Primo zeigt eine einzige, nach Relevanz sortierte Ergebnisliste aller lokalen und extern verfügbaren Ressourcen, wobei die Sichtbarkeit lokaler Sammlungen von der jeweiligen Institution kontrolliert wird. Bibliotheksdienste sind jetzt auch über das Primo Userinterface verfügbar - Benutzer können nun beispielsweise ausgeliehene Bücher verlängern; Reservierung, Gebühren und Strafen für überfälliges Leihgut einsehen; ihre Kontaktdaten aktualisieren. Diese vollständige Integration in das bibliothekarische Verwaltungssystem erfolgt über Programmierschnittstellen, die den Empfehlungen der Digital Library Federation für Such-Benutzeroberflächen (DLF ILS-DI) entsprechen. Zusätzlich bietet Primo nun verbesserte Such- und Anzeigeoptionen, eine iPhone-Schnittstelle, vielsprachige Thesauri sowie eine Erweiterung der Backoffice-Funktionen."
  9. Spiecker, C.; Schulze, C.: "Was gestatten deutsche Verlage ihren Autoren?" : Der deutschsprachige Zugang zu den Open-Access-Informationen der SHERPA/RoMEO-Datenbank (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.038156424 = score(doc=668,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 668, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=668)
      0.25 = coord(1/4)
    
    Abstract
    Das Thema "Open Access" ist nicht erst seit dem sogenannten "Heidelberger Appell" aus dem Frühjahr 2009 in aller Munde. Vielmehr befasst sich auch die Bibliothekswelt spätestens seit Beginn der 2000er Jahre mit dieser Thematik und ist inzwischen eine treibende Kraft in der internationalen "Open-Access-Bewegung" Dies spiegelt(e) sich auch wider in einer Vielzahl von (bibliothekarischen) Projekten, die sich mit Open Access umfassend und in vielfältiger Form befass(t)en. Eines der ersten Projekte aus einer Reihe von Vorhaben, die von der Deutschen Initiative für Netzwerkinformation (DINI) e.V. angeregt und unter Begleitung der DINI-AG Elektronisches Publizieren durchgeführt wurden, war das Projekt "Open Access Policies - Was gestatten deutsche Verlage ihren Autoren?". Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) in mehreren Phasen geförderten Vorhabens wurden die an zahlreichen deutschen Hochschulen und wissenschaftlichen Einrichtungen vorhandenen Informationen zusammengestellt: Die Möglichkeiten der zusätzlichen Bereitstellung von bereits in einem Verlag veröffentlichten oder noch zu veröffentlichenden wissenschaftlichen Arbeiten (self-archiving von Preprints bzw. Postprints) wurden erfasst, strukturiert, aufbereitet und mit Hilfe des internationalen Informationssystems der SHERPA/ RoMEO-Liste zugänglich gemacht. Hierzu wurde der Bekanntheitsgrad der SHERPA/RoMEO-Liste in Deutschland gesteigert, Handreichungen für die Kommunikation mit Verlagen übersetzt und Hilfestellung bei der lokalen Erfassung von Open-Access-Informationen gegeben.
  10. Lennard, H.; Surkau, M.: Benutzerevaluation und Usability-Test zur neuen Suchoberfläche Primo (Ex Libris) (2011) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 33) [ClassicSimilarity], result of:
          0.038156424 = score(doc=33,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 33, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=33)
      0.25 = coord(1/4)
    
    Abstract
    Zum Wintersemester 2010/11 wurde von der Universitätsbibliothek der Freien Universität Berlin das neue Bibliotheksportal Primo eingeführt, das auf der gleichnamigen Software der Firma Ex Libris basiert. Zunächst in einem "soft launch" als Betaversion live geschaltet, soll es in naher Zukunft den derzeitigen Katalog und die Digitale Bibliothek als Suchoberflächen ersetzen. Diese Situation bot einen optimalen Ausgangspunkt für eine Studie zur Usability des neuen Portals, da deren Ergebnisse direkt in die Neugestaltung der Relaunch-Version einfließen können. Um verschiedene Arten von Usability-Problemen des Bibliotheksportal Primo zu identifizieren, haben sich die Autorinnen einer Methodenkombination bedient. Zum einen wurde eine Heuristische Evaluation und zum anderen 20 Usability-Tests der deutschsprachigen Oberfläche des Portals durchgeführt. Die detaillierte Darstellung der so festgestellten Usability-Probleme bildet den Kern der Arbeit. Als Basis für das Verständnis des Systems und der methodischen Vorgehensweise, wird außerdem Primo im Kontext der "Neuen Kataloge" und deren Funktionalitäten näher beleuchtet, sowie die theoretischen Grundlagen der in der Arbeit verwendeten Methoden der Usability-Evaluation dargestellt.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  11. Maas, J.F.: SWD-Explorer : Design und Implementation eines Software-Tools zur erweiterten Suche und grafischen Navigation in der Schlagwortnormdatei (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 35) [ClassicSimilarity], result of:
          0.038156424 = score(doc=35,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 35, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=35)
      0.25 = coord(1/4)
    
    Abstract
    Die Schlagwortnormdatei (SWD) stellt als kooperativ erstelltes, kontrolliertes Vokabular ein aus dem deutschsprachigen Raum nicht mehr wegzudenkendes Mittel zur Verschlagwortung von Medien dar. Die SWD dient primär der Vereinheitlichung der Verschlagwortung. Darüber hinaus sind in der Struktur der SWD Relationen zwischen Schlagwörtern definiert, die eine gut vorbereitete Suche stark erleichtern können. Beispiel für solche Relationen sind die Unterbegriff-/Oberbegriffrelationen (Hyponym/Hyperonym) oder die Relation der Ähnlichkeit von Begriffen. Diese Arbeit unternimmt den Versuch, durch die Erstellung eines Such- und Visualisierungstools den Umgang mit der SWD zu erleichtern. Im Fokus der Arbeit steht dabei zum einen die Aufgabe des Fachreferenten, ein Medium geeignet zu verschlagworten. Diese Aufgabe soll durch die Optimierung der technischen Suchmöglichkeiten mit Hilfe von Schlagwörtern geschehen, z.B. durch die Suche mit Hilfe Regulärer Ausdrücke oder durch die Suche entlang der hierarchischen Relationen. Zum anderen sind die beschriebenen Relationen innerhalb der SWD oft unsauber spezifiziert, was ein negativer Seiteneffekt der interdisziplinären und kooperativen Erstellung der SWD ist. Es wird gezeigt, dass durch geeignete Visualisierung viele Fehler schnell auffindbar und korrigierbar sind, was die Aufgabe der Datenpflege um ein Vielfaches vereinfacht. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  12. Didi-Huberman, G.: ¬Das Nachleben der Bilder : Kunstgeschichte und Phantomzeit nach Aby Warburg (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 53) [ClassicSimilarity], result of:
          0.038156424 = score(doc=53,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 53, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=53)
      0.25 = coord(1/4)
    
    Abstract
    Wie kann man ein Bild verstehen? Indem man die Erinnerung und das Gedächtnis befragt, die in einem Bild am Werk sind, das »Nachleben«, so die Antwort Georges Didi-Hubermans. Im Anschluß an diesen aus seiner Sicht zu Unrecht aufgegebenen Begriff Aby Warburgs nähert sich Didi-Huberman dem Phantomcharakter der Bilder, ihrer Fähigkeit zu spukhafter Wiederkehr. Aby Warburg hat das »Nachleben« der Bilder als erster zum zentralen Motiv seiner anthropologischen Erforschung der westlichen Kunst gemacht. In seiner meisterhaften Studie untersucht Didi-Huberman dieses Motiv im Hinblick auf seine Logik, seine Quellen und seine philosophischen Hintergrundannahmen. Indem er Warburg mit Jacob Burckhardt, Friedrich Nietzsche und Sigmund Freud ins Gespräch bringt, wirft er einen faszinierenden Blick auf das paradoxe Leben der Bilder zwischen Zeitgebundenheit und Ewigkeit. »Das fruchtbare und originelle Denken von Georges Didi-Huberman hört nicht auf, uns zu beflügeln.«
  13. Mumenthaler, R.: Neue Dienstleistungen für mobile Lesegeräte? : E-Book-Reader und ihre Auswirkungen auf Bibliotheken (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 87) [ClassicSimilarity], result of:
          0.038156424 = score(doc=87,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 87, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=87)
      0.25 = coord(1/4)
    
    Abstract
    Digitale Medien sind auf dem Vormarsch. Das beeindruckendste Beispiel dafür kommt aus den USA-der Computerriese Apple hat im Juni drei Millionen verkaufte Exemplare seines iPads gemeldet, und das nur 80 Tage nach dem Verkaufsstart des Tablet-PCs. Aber egal ob Applikationen für Smartphones oder Rechtemanagement, die Digitalisierung bringt neue Herausforderungen mit sich. Und natürlich reagiert auch die Frankfurter Buchmesse auf diese rasanten Entwicklungen - in diesem Jahr gibt es sechs Sonderflächen auf dem Messegelände, die auf die Präsentation digitaler Produkte zugeschnitten wurden. Diese sogenannten »Hot Spots« sind über die Buchmesse verteilt: In Halle 8.0 ist zum Beispiel der »Devices Hot Spot«angesiedelt, dort werden eReader und Multimedia-Tablets samt Zubehör vorgestellt. Der »Mobile Hot Spot« in Halle 6.0 widmet sich dem Thema Smart-phones, der »Education Hot Spot« in Halle 4.2 befasst sich mit elektronischen Lernspielen und Online-Lernportalen. So ist auch auf der größten Bücherschau der Welt, die in diesem Jahr vom 6. bis zum 10. Oktober stattfinden wird, ein Blick in die Zukunft möglich. Welche Auswirkungen diese Entwicklungen auf Bibliotheken haben und wie sich diese auf die Veränderungen vorbereiten können, erläutert Rudolf Mumenthaler im Folgenden, von den Anfängen der ersten Reader bis zu den heutigen Geräten.
  14. Hildebrandt, J.; Beuth, P.: Macht Wikipedia schlau oder dumm? : die FR gibt Orientierungshilfen in der grenzenlosen Fundgrube (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 180) [ClassicSimilarity], result of:
          0.038156424 = score(doc=180,freq=48.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 180, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=180)
      0.25 = coord(1/4)
    
    Abstract
    Ist sie nun ein fehlerdurchsetzter Hort des irrelevanten Halbwissens - oder die zu recht erfolgreichste Sammlung von Texten, Bildern und Links des Internets? Acht Thesen zur Nutzung der Wikipedia und den Folgen.
    Content
    "Wissen wird in der Wikipedia schematisiert und in vorgegebene Formen gepresst, wie der Internet-Pionier Jaron Lanier kritisiert. JA: Frei gestaltete, multimediale, spielerische Websites könnten ein Thema möglicherweise viel besser erklären. Aber solche Seiten werden nicht wahrgenommen, denn Wikipedias Marktmacht ist schon gewaltig und wird durch die prominente Platzierung in den Ergebnissen aller Suchmaschinen noch weiter befördert. NEIN: Wer etwas wirklich verstehen will, dem reicht ein Text mit ein paar Grafiken oder Fotos zwar oft nicht aus. Lehrbücher sehen aber auch nicht anders aus. Dafür können die Links in den Wikipedia-Artikel auf ganz andere Arten von Dokumenten und Seiten führen. Wikipedia ist mehr als seine Artikel - die Quellen und Nachweise gehören auch dazu. Zudem muss eine Enzyklopädie ihre Inhalte formal ordnen, um schnell verständlich zu sein. Wikipedia fördert ein beschränktes, vereinheitlichtes Kollektivwissen, da schon Schüler für Referate damit recherchieren. JA: Die Gefahr besteht darin, dass Wikipedia durch Zusatzmaterial wie verlinkte Texte und Bilder eine gewisse Wissensfülle und -hoheit suggeriert. Wikipedia macht den Nutzer dadurch bequem - und schon Schüler verlernen, verschiedene Quellen zu vergleichen und kritisch zu hinterfragen. NEIN: Vereinheitlicht wird Wissen auch, wenn alle Schüler eines Bundeslandes dieselben Geschichts- oder Mathebücher benutzen sollen. Und wenn man Wikipedia als Konkurrent oder Nachfolger des Brockhaus im elterlichen Wohnzimmerregal ansieht, dann bietet Wikipedia dank der verlinkten Quellen sogar mehr weiterführende Inhalte für die Schüler.
    Manipulation in WP wird immer existieren, einfach, weil es so leicht ist. Das schafft ein Grundmisstrauen bei jeder Nutzung von WP. JA: Auch wenn keine Enzyklopädie vor Fehlern gefeit ist - Wikipedia ist durch seine leichte Zugänglichkeit und die vielen verschiedenen Autoren besonders gefährdet. Manche Fehler werden schnell verbessert, andere erst Wochen später oder überhaupt nicht. Der erfundene elfte Vorname von Karl-Theodor zu Guttenberg (2009) mag vergleichsweise harmlos sein, der Eintrag einiger "Borat"-Fans zu Kasachstan aus dem Jahr 2006 hingegen nicht ("Kasachstan größtes Land der Welt. Alle anderen Länder von kleinen Mädchen regiert."). Ein gedrucktes Lexikon kann man dagegen nicht umschreiben. NEIN: Die bisher durchgeführten Vergleichsstudien zeigen, dass in der Wikipedia nicht wesentlich mehr Fehler stecken als in anderen Enzyklopädien, etwa der Encyclopedia Britannica. Auch in der sind nicht alle Angaben korrekt. Ein Grundmisstrauen muss also sowieso vorhanden sein, so lange man nur eine Quelle benutzt. Wikipedia-Wissen ist gefiltertes und dadurch subjektives Second-Hand-Wissen, denn: Ein selbsternannter "Experte" hat dafür bestimmte Quellen ausgesucht und das für ihn Wichtigste zusammengefasst. JA: Vor allem die englischsprachige Wikipedia hat inzwischen Probleme, Autoren zu finden. Das Magazin Newsweek schreibt, dass sich erstmals mehr Autoren ab- als anmelden. Die Online-Enzyklopädie plant deshalb, Werber auszusenden, die neue Autoren an Land ziehen sollen. Auch in Deutschland erscheint bei sinkenden Autorenzahlen eine gleichbleibende Anzahl von Artikeln. NEIN: Die Zeit der Laien bei Wikipedia ist mehr oder weniger vorbei. Die Ansprüche der Community sind hoch. Ihre Mitglieder geben selbst zu, dass der Einstieg als Autor schwer geworden ist. Die "selbsternannten" Experten sind also in der Regel echte Experten. Und in alten Enzyklopädien war ein Redakteur oftmals gleich für mehrere Gebiete zuständig - während bei Wikipedia umgekehrt mehrere Experten an einem Thema arbeiten.
    Wikipedia transportiert nur einen Wissensausschnitt, da die meisten Autoren einer bestimmten sozialen Gruppe angehören (männlich, weiß) - zumindest die, die ihre Identität offenlegen. JA: Eine Online-Umfrage der Universität Würzburg ergab: Das Durchschnittsalter der deutschen Wikipedia-Autoren liegt bei 31 Jahren, 88 Prozent sind männlich, 25 Prozent studieren. Es ist also sehr wahrscheinlich, dass zumindest die Auswahl der Themen die Interessen und die Lebenswelt dieser Gruppe abbildet. NEIN: Die wichtigsten Kriterien eines Wikipedia-Artikels sind die Nachprüfbarkeit, Belegbarkeit und der Neutral Pont Of View (NPOV). Im Optimalfall verschwindet der Autor samt seiner Herkunft oder Gruppenzugehörigkeit hinter diesen Punkten. Dann wäre es egal, wie sich die Autorenschaft zusammensetzt. Außerdem hat jeder, der möchte, die Möglichkeit mitzuschreiben. Geringe Transparenz: Autoren dürfen anonym schreiben und werden von Wikipedia dazu noch ermutigt. JA: Wer anonym schreibt, hat weniger Hemmungen, Lügen, Beleidigungen und Meinungen zu verbreiten. Zu wissen, wer der Autor ist und die Möglichkeit, ihn zu kontaktieren, schafft Vertrauen in die Inhalte. Ein Schulbuch oder ein Lexikon ohne Autorennennung würde auch niemand kaufen. NEIN: Wikipedia will die persönlichen Daten seiner Autoren schützen. Für Wissens-Fragen oder Hinweise auf Fehler stehen die Diskussionsseiten, Mailinglisten, Chats, die Wikipedia-Auskunft und für viele Gebiete auch so genannte Redaktionen bereit, die ebenfalls per Chat kontaktiert werden können.
    Es wird unnötig, sich etwas zu merken, weil man es immer und überall bei WP nachsehen kann - ob per Smartphone oder per WikiReader. JA: Wer die Wikipedia mit sich trägt, glaubt, alle Fakten sofort zur Verfügung zu haben, wenn er sie braucht. Der WikiReader, ein handtellergroßes Gerät, das eine "stabile" Version der Enzyklopädie beinhaltet, ist besonders verführerisch, weil er keine Internetverbindung braucht, um die Wikipedia anzuzeigen. NEIN: Es gibt viele Situationen, in denen keine Zeit bleibt, etwas nachzuschlagen - erst recht nicht über eine Internetverbindung per Handy. Und nicht alles ist sofort per Stichwortsuche auffindbar. Zusammenhänge muss man weiterhin verstehen, um zu wissen, was man überhaupt nachschlagen kann. Wikipedia filtert Wissen, ordnet es dann aber nicht ein. Zahlreiche irrelevante Einträge, die es nie in eine gedruckte Enzyklopädie geschafft hätten (Andreas Türck, Mr. Spock) stehen gleichrangig neben wichtigen, historisch oder gesellschaftlich relevanten Themen. JA: Jaron Lanier warnt davor, dass die Realität als Bezugspunkt verloren gehe, wenn Figuren aus Fantasy-Romanen genau soviel Raum wie Menschen der Zeitgeschichte einnehmen. Dann könnten wir fiktive Personen mit realen verwechseln, glaubt er. NEIN: In einer Online-Enzyklopädie steht nichts neben- oder übereinander. Es gibt keine Hierarchie von Themen. Wie viel Platz ein Thema einnimmt, ist egal, wenn der Raum praktisch unendlich groß ist. Und zum Wissen der Welt gehört auch Fiktion. Eine Enzyklopädie, in der Mr. Spock gar nicht auftaucht, ist einer Ausgabe, in der die Figur beschrieben wird, deshalb unterlegen."
  15. Öttl, S.; Streiff, D.; Stettler, N.; Studer, M.: Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 257) [ClassicSimilarity], result of:
          0.038156424 = score(doc=257,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 257, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=257)
      0.25 = coord(1/4)
    
    Abstract
    Der Einsatz von semantischen Technologien ist mittlerweile ein etabliertes Mittel zur Optimierung von Information-Retrieval-Systemen. Obwohl der Einsatz von Ontologien für verschiedene Anwendungsbereiche wie beispielsweise zur Query-Expansion (Bhogal et al. 2007), zur Strukturierung von Benutzeroberflächen bzw. zur Dialoggestaltung (z. B. Garcia & Sicilia 2003; Liu et al. 2005; Lopez et al. 2006; Paulheim 2009; Paulheim & Probst 2010), in Recommendersystemen (z. B. Taehee et al. 2006; Cantador et al. 2008; Middleton et al. 2001; Middleton et al. 2009) usw. rege erforscht wird, gibt es noch kaum Bestrebungen, die einzelnen Abfragemethodiken für Ontologien systematisch zu untersuchen. Bei der Abfrage von Ontologien geht es in erster Linie darum, Zusammenhänge zwischen Begriffen zu ermitteln, indem hierarchische (Classes und Individuals), semantische (Object Properties) und ergänzende (Datatype Properties) Beziehungen abgefragt oder logische Verknüpfungen abgeleitet werden. Hierbei werden sogenannte Reasoner für die Ableitungen und als Abfragesprache SPARQL (seltener auch XPath) eingesetzt. Ein weiterer, weniger oft eingesetzter, vielversprechender Ansatz findet sich bei Hoser et al. (2006) und Weng & Chang (2008), die Techniken der Sozialen Netzwerkanalyse zur Auswertung von Ontologien miteinsetzen (Semantic Network Analysis). Um die Abfrage von Ontologien sowie Kombinationen der unterschiedlichen Abfragemöglichkeiten systematisch untersuchen zu können, wurde am SII eine entsprechende Testumgebung entwickelt, die in diesem Beitrag genauer vorgestellt werden soll.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  16. Niemann, C.: Intelligenz im Chaos : erste Schritte zur Analyse des Kreativen Potenzials eines Tagging-Systems (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 375) [ClassicSimilarity], result of:
          0.038156424 = score(doc=375,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 375, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=375)
      0.25 = coord(1/4)
    
    Abstract
    Die Auszeichnung digitaler Medien durch Tagging ist zur festen Größe für das Wissensmanagement im Internet avanciert. Im Kontext des zunehmenden information overload' stehen wissenschaftliche Bibliotheken vor der Aufgabe, die große Flut digital publizierter Artikel und Werke möglichst inhaltlich erschlossen verfügbar zu machen. Die Frage ist, ob durch den Einsatz von Tagging-Systemen die kollaborative Intelligenz der NutzerInnen für die Sacherschließung eingesetzt werden kann, während diese von einer intuitiven und individuellen Wissensorganisation profitieren. Die große Freiheit bei der Vergabe von Deskriptoren durch die NutzerInnen eines Tagging-Systems ist nämlich ein ambivalentes Phänomen: Kundennähe und kreatives Potenzial stehen der großen Menge völlig unkontrollierter Meta-Informationen gegenüber, deren inhaltliche Qualität und Aussagekraft noch unklar ist. Bisherige Forschungsbemühungen konzentrieren sich hauptsächlich auf die automatische Hierarchisierung bzw. Relationierung der Tag-Daten (etwa mittels Ähnlichkeitsalgorithmen) oder auf die Analyse des (Miss-)Erfolgs, den die NutzerInnen bei einer Suchanfrage subjektiv erfahren. Aus der Sicht stark strukturierter Wissensorganisation, wie sie Experten z. B. durch die Anwendung von Klassifikationen realisieren, handelt es sich bei den zunächst unvermittelt nebeneinander stehenden Tags allerdings kurz gesagt um Chaos. Dass in diesem Chaos aber auch Struktur und wertvolles Wissen als Gemeinschaftsprodukt erzeugt werden kann, ist eine der zentralen Thesen dieses Artikels.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Band 7
  17. Sandner, M.: NSW online : Elektronisches Tool zur "Liste der fachlichen Nachschlagewerke" (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 527) [ClassicSimilarity], result of:
          0.038156424 = score(doc=527,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 527, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=527)
      0.25 = coord(1/4)
    
    Abstract
    Die "Liste der fachlichen Nachschlagewerke zu den Normdateien" (NSW-Liste) stellt mit ihren derzeit rund 1.660 Einträgen ein verbindliches Arbeitsinstrument für die tägliche Praxis in der kooperativen Normdatenpflege des deutsch-sprachigen Raumes, speziell für die Terminologiearbeit in der bibliothekarischen Sacherschließung dar. In jedem Normdatensatz der Schlagwortnormdatei (SWD) werden für den Nachweis und die Begründung der Ansetzungs- und Verweisungsformen eines Deskriptors im Feld "Quelle" Referenzwerke aus der so genannten Prioritätenliste (Rangfolge der Nachschlagewerke), darüber hinaus aus der gesamten NSW-Liste, festgehalten und normiert abgekürzt. In gedruckter Form erscheint sie jährlich aktuali-siert mit einem Änderungsdienst (Änderungen, Neuauflagen; Neuaufnahmen) und steht seit eini-gen Jahren auch elektronisch abrufbar bereit. Dennoch ist diese Liste "in die Jahre" ge-kommen. Vor allem die Durchnummerierung ihrer Einträge ist störend: In jeder neuen Auflage ändern sich die laufenden Nummern, während sich gleichzeitig die meisten Register gerade auf diese Zählung beziehen. - Das einzig gleichbleibende Merkmal jedes aufgelisteten Nachschlagewerks ist seine normierte Abkürzung. Deshalb haben wir uns im neuen elektronischen NSW-Tool für diese Abkürzungen als Anker entschieden. Die Entstehung dieses Tools resultiert aus einer Verkettung günstiger Umstände und hatte so gut wie keine finanzielle Basis. Es beruht auf einem starken Engagement aller Beteiligten. Aus die-sem Grund freuen wir uns ganz besonders über das erreichte Ergebnis und wagen uns nun mit einer Beta-Version an die Fachöffentlichkeit.
  18. Haubner, S.: "Als einfacher Benutzer ist man rechtlos" : Unter den freiwilligen Wikipedia-Mitarbeitern regt sich Unmut über die Administratoren (2011) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 567) [ClassicSimilarity], result of:
          0.038156424 = score(doc=567,freq=48.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 567, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=567)
      0.25 = coord(1/4)
    
    Content
    "Kaum etwas hat den Umgang mit dem Wissen der Welt so verändert wie Wikipedia. Die von Tausenden von freiwilligen Helfern erstellte Online-Enzyklopädie ist eine ein Jahrzehnt währende Erfolgsstory - ganz besonders in Deutschland. Mit rund 1,2 Millionen Artikeln ist die deutsche nach der englischen die zweitgrößte Wikipedia-Ausgabe. Laut der aktuellen Online Studie von ARD und ZDF haben fast 36 Millionen Deutsche schon einmal etwas im Internet nachgeschlagen. Fast drei Viertel der Internetnutzer ab 14 Jahren schauen zumindest ab und an mal bei Wikipedia vorbei. Wikipedia ist zu einem Giganten geworden, die Menge an Informationen ist unüberschaubar. Genau das wird immer mehr zu einem Problem. Nutzer, die nur eben mal kurz etwas nachschlagen wollen, sind häufig ernüchtert. In manchen Themenbereichen liest sich Wikipedia nicht mehr wie ein Volkslexikon, sondern wie eine in bestem Fachchinesisch verfasste Doktorarbeit. Ein Beispiel dafür ist der Artikel über den "Goldenen Schnitt". Dass sich dabei der größere Abschnitt einer Strecke zu dieser verhält wie der kleinere Abschnitt zum größeren, erklärt das gedruckte Meyers Taschenlexikon in zwei Sätzen. Wikipedia-Nutzer sehen sich einer Fülle von Formeln, Schaubildern und Diagrammen gegenüber. Einem Schüler, der sich über die Rolle des Goldenen Schnitts in der bildenden Kunst informieren möchte, schwirrt da bald der Kopf. Und im Abschnitt "Bildkomposition" er schließlich endgültig verunsichert. Weil der Artikel nicht hinreichend mit Belegen ausgestattet sei, würden einige Angaben möglicherweise demnächst entfernt. Eine zuverlässige Informationsquelle sieht anders aus.
    "Kann es sein, dass sich hier die reinen Fachidioten tummeln?", fragt ein Nutzer. "Warum schreibt hier niemand etwas davon, worum es wirklich geht?" Auf der zu jedem Artikel gehörenden Diskussionsseite wird mühsam um jeden einzelnen Satz gerungen. Welche Informationen sind wirklich wichtig? Gibt es dafür ausreichende Belege? Warum wurde ein bestimmter Absatz gelöscht und dafür ein anderer eingefügt? Und wer bestimmt überhaupt, was wissenswert ist und was nicht? Vollends unübersichtlich wird es, wenn abweichende Meinungen unversöhnlich aufeinanderprallen. So umfasst die Diskussion um die wissenschaftliche Belegbarkeit der Homöopathie mittlerweile 1,3 Millionen Wörter. Mit 11.400 Einzelbeiträgen, so erfährt der Nutzer auf der betreffenden Seite, handle es sich um die längste Diskussion über einen Artikel in der deutschsprachigen Wikipedia. Allein für das Lesen benötige man ohne Pausen etwa 143 Stunden. Kein Wunder, dass vielen potenziellen Mitarbeitern solche Grabenkämpfe auf Dauer zu anstrengend sind. Gerade einmal drei Prozent der Nutzer haben schon einmal selbst Artikel verfasst oder fremde überarbeitet. Der Anteil weiblicher Helfer hinkt dem der männlichen seit Jahren dramatisch hinterher. Dass viele Autoren bereits nach wenigen Beiträgen wieder im Heer der inaktiven Nutzer untertauchen, ist mittlerweile sogar Gegenstand einer internen Befragung.
    Nicht wenige von denen, die aus Frust nicht mehr dabei sind, machen dafür die Administratoren verantwortlich. Derzeit rund 300 "Admins" wurden von der Wikipedia-Gemeinschaft mit weiter gehenden Rechten ausgestattet, als sie der normale Nutzer hat. Um die Informationsflut einigermaßen zu kanalisieren, haben sich einige von ihnen recht rustikale Umgangsformen angewöhnt. Inhaltliche Auseinandersetzungen werden mit harten Bandagen und oft fragwürdiger Wortwahl ausgetragen. Wer die Relevanz eines von ihm verfassten Artikels nicht nachweisen kann, muss mit der Löschung des gesamten Beitrags rechnen. Wer dagegen Einspruch erhebt, wird barsch abgebügelt: Ganz Uneinsichtige müssen gar mit einer dauerhaften Sperrung rechnen: Das allgemeine Arbeitsklima und die Art und Weise, wie hier mit Leuten umgesprungen wird, ist absolut beklagenswert", sagt Dr. Klaus Graf, Historiker und Archivar an der Rheinisch-Westfälischen Technischen Hochschule in Aachen und seit 2004 aktiver Mitarbeiter an der Online-Enzyklopädie. Viele der Admins beherrschten die einfachsten Grundregeln im Umgang mit Menschen nicht. "Diese Leute leben bei Wikipedia ihre Allmachtsfantasien aus und glauben, sich alles herausnehmen zu können." Offenbar können sie das auch. "Als einfacher Nutzer", so Graf, "ist man vollkommen rechtlos und steht am Ende immer auf der Seite der Verlierer." Denn das Schiedsgericht, das man als letzte Instanz aufrufen kann, sei keineswegs neutral, sondern stehe fast immer geschlossen hinter den Admins, die sich wie "Oberlehrer" und "Blockwarte" gerierten.
    Das strukturelle Ungleichgewicht führt letztlich auch zu einem inhaltlichen. So strotzt Wikipedia geradezu vor Detailwissen zu historischen und modernen Kriegsschiffen - inklusive seitenlang ausgebreiteter technischer Details. Kultur- und Bildungseinrichtungen landen hingegen ziemlich schnell als "irrelevant" auf der Liste der "Löschkandidaten". Nach einer siebentägigen "Löschdiskussion" verschwinden sie im digitalen Orkus - inklusive der von den Autoren investierten Arbeitsstunden. "Wir mischen uns grundsätzlich nicht in redaktionelle Vorgänge ein", kommentiert Catrin Schoneville vom Förderverein Wikimedia Deutschland die Klagen enttäuschter Mitarbeiter. Selbstgerechtigkeit und rüpelhaftes Verhalten seien zudem keine auf Wikipedia beschränkte Phänomene, sondern ein Problem bei Diskussionen mit unterschiedlichen Auffassung überall im Internet. Die überwiegende Mehrheit der Autoren arbeite einfach mit und befasse sich nicht mit den Vorwürfen und der Nörgelei, die "immer wieder von dem gleichen kleinen Kreis von Kritikern geäußert würden. Auch ein Nachwuchsproblem sieht die Wikimedia-Sprecherin nicht: "Wir haben derzeit rund 7000 aktive Autoren in der deutschsprachigen Community. Bei einem freiwilligen Projekt liegt es in der Natur der Sache, dass das Engagement, mit dem sich jeder einzelne einbringt, variiert."
    Dennoch bemühe man sich, mit Förderprojekten und Workshops für mehr Motivation zu sorgen und neue Zielgruppen zu erschließen. So werde das Mentorenprogramm, in dessen Rahmen man sich von erfahrenen Autoren bei den ersten Schritten in der Wikipedia-Welt begleitet lassen kann, schon von 90 Prozent der Neueinsteiger angenommen. Stolz ist man bei Wikimedia auf das Projekt "Silberwissen", mit dem vor allem ältere Menschen angesprochen werden sollen. "Das Wissen älterer Generationen könnte Wikipedia bereichern und neue Perspektiven eröffnen", hofft Schoneville. Vielleicht wirkt sich diese Lebenserfahrung ja irgendwann einmal auch auf die in der Wikipedia-Gemeinde herrschenden Umgangsformen aus. Zu wünschen wäre es. Schließlich, und da sind sich ausnahmsweise einmal alle Beteiligten einig, gibt es zu Wikipedia mit seinen beinahe konkurrenz- weil kostenlosen Angeboten derzeit kaum echte Alternativen."
  19. Frohner, H.: Social Tagging : Grundlagen, Anwendungen, Auswirkungen auf Wissensorganisation und soziale Strukturen der User (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 723) [ClassicSimilarity], result of:
          0.038156424 = score(doc=723,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 723, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=723)
      0.25 = coord(1/4)
    
    Abstract
    Social Tagging ist eine Methode zur semantischen Datenorganisation. Im Unterschied zu traditionellen Ansätzen wird die Kategorisierung nicht von Experten vorgenommen, sondern von einer Vielzahl von Benutzern gemeinschaftlich entwickelt. Bezüglich der Daten existieren grundsätzlich keinerlei Einschränkungen. Dabei kann es sich sowohl um multimediale Inhalte als auch um wissenschaftliche Literatur handeln. Jeder Benutzer, unabhängig von Expertise oder Intention, ist aufgefordert, mithilfe von frei gewählten Tags die Kategorisierung der verwendeten Ressourcen zu unterstützen. Insgesamt entsteht dadurch eine Sammlung verschiedenster subjektiver Einschätzungen, die zusammen eine umfassende semantische Organisation bestimmter Inhalte darstellen. Ziel dieses Buches ist es, zunächst die Grundlagen und Anwendungen von Social Tagging zu erörtern und dann speziell die Effekte im Hinblick auf die Wissensorganisation und die sozialen Beziehungen der Benutzer zu analysieren. Eines der zentralen Ergebnisse dieser Arbeit ist die Erkenntnis, dass die gemeinschaftlich erzeugten Metadaten eine unerwartet hohe Qualität bzw. Bedeutsamkeit aufweisen, obwohl Mehrdeutigkeiten und verschiedene Schreibweisen diese negativ beeinflussen könnten. Social Tagging ist besonders effektiv für die Organisation von sehr großen oder auch heterogenen Daten-beständen, die mit herkömmlichen, experten-basierten Kategorisierungsverfahren nicht mehr verarbeitet werden können oder durch automatische Verfahren qualitativ schlechter indexiert werden. Durch Social Tagging wird nicht nur die Wissensorganisation gefördert, sondern darüber hinaus auch die Zusammenarbeit und der Aufbau von Communities, weshalb Social Tagging auch effizient in der Lehre eingesetzt werden kann.
  20. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.01
    0.009539106 = product of:
      0.038156424 = sum of:
        0.038156424 = weight(_text_:und in 793) [ClassicSimilarity], result of:
          0.038156424 = score(doc=793,freq=12.0), product of:
            0.12713796 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057323597 = queryNorm
            0.30011827 = fieldWeight in 793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=793)
      0.25 = coord(1/4)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications