Search (1873 results, page 74 of 94)

  • × year_i:[2010 TO 2020}
  1. Jötten, F.: Auf der Suche nach der göttlichen Zahl : Wie ein Spielzeug einen Darmstädter Mathematiker ein Erwachsenenleben lang nicht mehr losließ (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 907) [ClassicSimilarity], result of:
          0.030759454 = score(doc=907,freq=24.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 907, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Content
    "Ein kleiner Junge reicht einem Roboter einen verdrehten Zauberwürfel. Der hebt den Würfel vor sein Blechgesicht, wendet ihn hin und her - und beginnt dann blitzschnell mit seinen Metallarmen zu drehen, bis nur noch eine Farbe pro Seite zu sehen ist. Das Internet ist voller solcher Videos von Menschen und Maschinen, die einen Zauberwürfel wieder in die Ausgangsposition bringen. Ein dreijähriges Kind löst die Aufgabe unter zwei Minuten, ein 18-jähriger Niederländer schafft es in sieben Sekunden, ein Roboter aus Lego in zehn, ein Franzose mit verbundenen Augen in 23.
    Forschen nach der Formel Die Wissenschaft tüftelte seit 30 Jahren an seinem Rätsel - jetzt ist es gelöst. Die so genannte Gotteszahl ist gefunden. So nennen die Wissenschaftler die kleinstmögliche Anzahl von Zügen, die es braucht, um einen Würfel aus jeder denkbaren Position in den Ausgangszustand zu drehen. Das Zentrum der europäischen Zauberwürfelforschung ist ein Arbeitszimmer in Darmstadt. Herbert Kociemba, 56, Lehrer für Physik und Mathematik und einer derjenigen, die an dem jüngsten Forschungserfolg beteiligt waren, sitzt an seinem Schreibtisch. Neben ihm steht seine Zauberwürfel-Sammlung, daneben eine Plastiktüte mit winzigen, bunten Kacheln - damit ersetzt er die Aufkleber auf seinen Würfeln: Das sieht besser aus und ist haltbarer. Wenn es um Rubik's Cube geht, merkt man, dass der für ihn mehr ist, als nüchterne Mathematik. "Der Würfel knarrt so schön, wenn man ihn dreht", sagt er und lächelt verzückt. "Er wird nie vergessen, weil er einfach genial ist." Bei der Markteinführung hatte Kociemba gerade begonnen als Lehrer zu arbeiten. "In den Noten-Konferenzen strickten die Frauen - und männliche Kollegen drehten am Zauberwürfel", erinnert er sich. Heute sitzt Kociemba vor seinem Computer, auf dem Bildschirm bunte Quadrate und graue Schaltflächen: das ist "Cube Explorer", ein Computerprogramm, das Kociemba 1992 erfand. Mit der neuen Version kann der Benutzer per Webcam jede Würfel-Position einlesen und sich berechnen lassen, mit welchen Drehungen man ihn in die Ausgangsposition (alle Seiten des Würfels einfarbig) zurückbringen kann.
    "Im Durchschnitt schafft das Programm das mit 19 Zügen", sagt Kociemba. Für Würfelfans ist das Programm essenziell, sie dankt dem Mathematiker frenetisch in Internetforen - die meisten Speedcuber, diejenigen, die den Würfel in möglichst kurzer Zeit lösen wollen, berechnen sich mit Cube Explorer die optimalen Drehkombinationen. "Aber eigentlich hat mich das zuletzt nicht mehr interessiert", sagt Kociemba. Gemeinsam mit dem kalifornischen Informatiker Tom Rokicki und dem Mathematiker Morley Davidson von der Kent State University in Ohio wollte er "Gottes Zahl" finden - den optimalen Weg mit möglichst wenigen Schritten um den Zauberwürfel zu lösen. Der Cube kann 43 Trillionen Positionen einnehmen. Für jede Stellung gibt es 18 Möglichkeiten für den ersten Zug - und dann wieder 18 für jeden folgenden. Wollte man die Gotteszahl so berechnen, dass man für jede Würfelstellung die optimalen Züge berechnet, müssten fünf Millionen Computer fünf Millionen Jahre lang rechnen - unmöglich. 1992 kam für Kociemba der erste Durchbruch bei der Suche nach der Gotteszahl. Er schrieb einen Zwei-Phasen-Algorithmus. Der Trick: Der Würfel wird aus einer beliebigen Anfangsstellung in maximal zwölf Zügen in eine Zwischenformation gebracht, das schränkt die Anzahl der verbleibenden Möglichkeiten auf 20 Milliarden ein, was Computer heute gut bewältigen. In einer zweiten Phase wird er dann in die Zielposition (alle Seiten des Würfels einfarbig) gebracht. Dazu braucht es höchstens 18 Drehungen, in der Summe sind also nach diesem Modell höchstens 30 notwendig. In den vergangenen 18 Jahren reduzierten die Forscher die Zahl. 2008 zeigte Rokicki, dass sie nicht größer als 25 sein kann. Er nutzte Kociembas Weg, unterteilte die Würfelpositionen aber in Gruppen, so dass er nicht jede einzeln berechnen musste. Dann fehlte ihm nur noch Rechnerleistung. Zunächst stellte Sony Pictures nachts die Computer zur Verfügung, auf denen sonst Trickfilme entstehen. Dann half Google mit seiner riesigen Rechner-Kapazität. Jetzt steht fest: Der Zauberwürfel kann, egal wie er verdreht ist, in 20 Zügen in die Zielposition gebracht werden. "Ein moderner Desktop-PC hätte für die Rechenarbeit 35 Jahre gebraucht", sagt Rokicki."
  2. Werr, N.: Fünf Jahre Studieneinheit "Informationskompetenz / information literacy (INK)" : Rückblick und Ausblick (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 74) [ClassicSimilarity], result of:
          0.030759454 = score(doc=74,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 74, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=74)
      0.25 = coord(1/4)
    
    Abstract
    Die Studieneinheit "Informationskompetenz" "sollte verpflichtender Kurs für Studenten aller Fachrichtungen sein" - so lautete eine der Rückmeldungen zu den beiden von der Universitätsbibliothek Regensburg betreuten Kursen im Rahmen der Evaluation von INK des Sommersemesters 2010. Ähnliche Rückmeldungen gehen fast jedes Sommersemester ein, so im Jahr 2006: "Mein Vorschlag ist, diesen Kurs in abgespeckter Form zu Beginn eines jeden Semesters für alle Studenten anzubieten, da hier sehr viel über die Benutzung der Bibliothek und richtiges Suchen gelernt werden kann, was eigentlich für alle Studenten sehr wichtig ist." Oder aus den Jahren 2008 ("Ich fände es gut, wenn der Kurs als Pflichtkurs für jeden Studenten eingerichtet werden würde bzw. Teilbereiche wie DBIS, EZB etc. als Pflichtveranstaltung in möglichst allen Fachbereichen existent wären.") und 2010 ("Sollte verpflichtender Kurs für Studenten aller Fachrichtungen sein!"). Diese Einschätzungen sowie die im fünften Jahr der Studieneinheit um fast 20% gestiegene Teilnehmerzahl seien daher Anlass zu einem kleinen Rückblick.
  3. Böttger, D.: Mit den eigenen Fotos Geld verdienen : Hobbyfotografen können ihre Bilder über Microstock-Agenturen verkaufen (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 178) [ClassicSimilarity], result of:
          0.030759454 = score(doc=178,freq=24.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 178, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=178)
      0.25 = coord(1/4)
    
    Content
    "Auf so mancher Festplatte schlummern wahre Schätze. Denn das ein oder andere Urlaubsfoto kann mit Hilfe so genannter Microstock-Agenturen in bare Münze verwandelt werden. Dabei muss es nicht zwangsläufig ein Palmenstrand sein, auch Aufnahmen vom letzten Waldspaziergang lassen sich verkaufen. Echte Verkaufsschlager sind symbolische Bilder, die sich möglichst universell einsetzen lassen, wie eine Tasse dampfenden Kaffees oder Finger auf einer Computertastatur beziehungsweise Aufnahmen von Personen in allen Lebenslagen. Viele solcher Motive finden sich bereits irgendwo auf einem Datenträger und warten nur darauf, verkauft zu werden. Bilder selbstkritisch betrachten Dies übernehmen so genannte Microstock-Agenturen. Gegenüber einer klassischen Bildagentur bieten Microstock-Agenturen ihre Bilddaten zu günstigen Konditionen über Online-Plattformen an. Bilder in kleiner Internetauflösung gibt es bereits ab einem Euro. Je größer das jeweilige Bild dann bestellt wird, desto höher der Preis. Diese Preismodelle setzen vor allem auf Masse und weniger auf Exklusivität. Das bedeutet auch, dass jeder Interessierte seine Bilder einer Microstock-Agentur anbieten kann. In der Regel sind dazu erstmal drei bis fünf digitale Dateien notwendig, die zeigen, dass die technischen Aspekte und somit die Bildqualität stimmt. Vier Megapixel Auflösung sollten die Dateien mindestens bieten und am besten mit einer hochwertigen Kompaktkamera oder noch besser mit einer digitalen Spiegelreflex fotografiert werden. Je mehr Megapixel die Datei bietet, umso besser, denn dann kann das Bild auch in größeren Formaten zu höheren Preisen verkauft werden. Kleine Dateien mit Hilfe von Bildbearbeitungsprogrammen künstlich hochzurechnen bringt keinen Vorteil, da darunter die Bildqualität erheblich leidet.
    Da die ersten Bilddaten von den Kontrolleuren der Bildagentur besonders kritisch unter die Lupe genommen werden, sollte man unbedingt seine besten Bilder einreichen. Scheitern alle diese Bilder bei der Qualitätskontrolle, braucht man es mit dem Rest erst gar nicht versuchen. Bei der Auswahl der Motive sollte man vor allem selbstkritisch seine Bilder betrachten und vor allem auch jemand anderen nach seiner Meinung fragen. Alle Microstock-Agenturen bieten auf ihren Seiten zudem Informationen, welche Motive gesucht werden und welche bereits in ausreichender Zahl vorhanden sind. Sonnenuntergänge, Windräder und Fotos von Schnittblumen wie Rosen, Tulpen oder Gerbera haben so gut wie keine Chance aufgenommen zu werden - auch wenn sie technisch noch so perfekt fotografiert wurden.
    Richtig verschlagworten Wenn es die ersten Motive durch die Qualitätskontrolle geschafft haben, können erste Bilder über eine spezielle Internetseite in die Bilddatenbank der Microstock-Agentur hochgeladen werden. Danach geht es an den arbeitsintensiven Teil, nämlich deren Verschlagwortung. Dabei werden die Bilder in Kategorien einsortiert und mit Stichwörtern zum Bildinhalt versehen. Diese helfen anschließend den potenziellen Käufern bei der Bildersuche. Somit kommt der Verschlagwortung eine ganz zentrale Rolle zu. Nur wer die richtigen Begriffe mit seinem Bild verknüpft und das Motiv eindeutig beschreibt, dessen Foto erscheint als Treffer bei der entsprechenden Suche. Nach der Verschlagwortung kommt nochmal der Bildredakteur der jeweiligen Microstock-Agentur zum Einsatz. Jedes Bild wird vor der Freischaltung auf Motivauswahl, Qualität und entsprechende Verschlagwortung überprüft. Das kann dann in der Praxis auch mal ein paar Tage dauern, bis die Bilder dann zum Verkauf freigegeben werden. Vom Verkaufserlös erhält der Fotograf dann einen prozentualen Anteil, der von Agentur zu Agentur variiert und von verschiedenen Faktoren abhängig ist. Bei der Bildagentur Fotolia beispielsweise rangiert der Anteil zwischen 33 Prozent vom Verkaufspreis für Einsteiger bis zu 80 Prozent für etablierte Fotografen, die erfolgreich eine Vielzahl exklusiver Motive anbieten. Ein und dasselbe Bild kann auch über mehrere Microstock-Agenturen angeboten werden. Allerdings sinkt dann der prozentuale Anteil am Erlös. Generell gilt: Ausprobieren kostet nichts. Die Agenturen finanzieren sich in der Regel über die Verkaufserlöse. Die Anmeldung ist kostenlos."
  4. Huber, R.; Paschke, A.; Awad, G.; Hantelmann, K.: Einsatz semantischer Technologien zur Entwicklung eines Lerntrajektoriengenerators in frei zugänglichen, nicht personalisierenden Lernplattformen : Erfahrungsbericht (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 279) [ClassicSimilarity], result of:
          0.030759454 = score(doc=279,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 279, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=279)
      0.25 = coord(1/4)
    
    Abstract
    Die Aneignung von Wissen in frei zugänglichen elektronischen Ausbildungsumgebungen ohne Personalisierungsverfahren ist geprägt durch starkes Eigenengagement des Lernenden. Personalisierungsverfahren stellen für viele Nutzer eine Einstiegsbarriere dar. Aufgrund fehlender Nutzerdaten können die Werkzeuge innerhalb der Plattformen kaum sinnvolle, individuelle Lernpfade dynamisch generieren. Das FIZ CHEMIE geht im Rahmen einer Forschungskooperation den Fragestellungen nach, ob durch den Einsatz semantischer Verfahren geeignete Recommender-Systeme in nicht personalisierenden Lernumgebungen aufgebaut und optimiert werden können, bzw. mit welchen, an eine frei zugängliche Lernplattform angliederbaren Mehrwertdiensten für den Nutzer individuelle Daten gesammelt werden können, die auf alle Lernenden der Ausbildungsumgebung übertragen werden können.
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
    Source
    Semantic web & linked data: Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis. Hrsg.: M. Ockenfeld
  5. Kuhlen, R.: Der Streit um die Regelung des Zweitveröffentlichungsrechts im Urheberrecht : oder: Was macht Wissenschaftsfreiheit aus? (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 679) [ClassicSimilarity], result of:
          0.030759454 = score(doc=679,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=679)
      0.25 = coord(1/4)
    
    Abstract
    Die Auseinandersetzung um die Verankerung eines Zweitveröffentlichungsrechts im Urheberrecht wird aus den unterschiedlichen Perspektiven der beteiligten Akteure diskutiert. Komplexer wird das Problem dadurch, dass das Zweitveröffentlichungsrecht als Mittel der indirekten oder direkten Begünstigung des Open-Access-Paradigmas gesehen wird. Zwar soll das Zweitveröffentlichungsrecht in erster Linie die informationelle Selbstbestimmung der Autoren fördern. Als Zweitveröffentlichungsverpflichtung zugunsten von Open-Access-Repositories soll jedoch auch dem Interesse der Öffentlichkeit an einem freien Zugriff zu dem mit öffentlichen Mitteln erstelltem Wissen Rechnung getragen werden. Das wird zumindest in Deutschland als Eingriff in Wissenschaftsfreiheit für problematisch gehalten. Wissenschaftsfreiheit hängt jedoch nicht von einer positiven Publikationsfreiheit bei der Zweitveröffentlichung ab. Ein Zweitveröffentlichungsrecht (der Autoren und der sie tragenden Institutionen) könnte als Übergang zu einer vollständig durch das Open-Access-Paradigma bestimmten Wissenschaftskommunikation angesehen werden.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  6. Schneider, K.: Kataloganreicherung auch für Reihe B der Deutschen Nationalbibliografie (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.030759454 = score(doc=714,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 714, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=714)
      0.25 = coord(1/4)
    
    Content
    "Die Deutsche Nationalbibliothek erweitert ab Juli 2011 ihre Kataloganreicherung um Inhaltsverzeichnisse der Veröffentlichungen außerhalb des Verlagsbuchhandels (Reihe B der Deutschen Nationalbibliografie). Der seit dem Jahr 2008 für die Reihe A der Deutschen Nationalbibliografie angebotene Dienst wird damit auf den monografischen Neuzugang und auf Zeitschriftenstücktitel der Reihe B erweitert. Inhaltsverzeichnisse werden im Rahmen der Kataloganreicherung als durchsuch-bare PDF-Objekte zu den Titeldaten angeboten und können in Recherchen einbezogen werden. Suchergebnisse werden dadurch umfangreicher und können besser bewertet werden. Über die Datendienste der Deutschen Nationalbibliothek sind die Inhaltsverzeichnisse ebenfalls erhältlich. Bis Jahresende sollen allein in der Reihe B rund 10.000 Inhaltsverzeichnisse zusätzlich zur Verfügung stehen. Zurzeit sind mehr als 606.000 Inhaltsverzeichnisse mit Katalogeinträgen verbunden. 213.000 Inhaltsverzeichnisse der Zugangsjahre 2008 bis Mitte 2011 werden durch rund 124.000 Inhaltsverzeichnisse der Zugangsjahre 1913 bis 1922 ergänzt. 269.000 Inhaltsverzeichnisse wurden von Bibliotheksverbünden übernommen. Weitere Verbünde werden im Laufe des Jahres folgen. Das Projekt zur retrospektiven Kataloganreicherung wird derzeit mit den Monografien der Zugangsjahre ab 1983 fortgesetzt."
  7. Rubin, R.: Foundations of library and information science (2010) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.030759454 = score(doc=781,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=781)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in BuB 63(2011) H.11/12, S.821-822 (K. Umlauf): "... Das mit 40 Seiten vergleichsweise kurze Kapitel rückt die Dimensionen von Themen wie Klassifikation, Thesauri, Katalogisierung, Bibliografien, Indexe, Datenformate, semantisches Web und Metatdaten in die richtige Dimension..."
    RSWK
    Informations- und Dokumentationswissenschaft
    Subject
    Informations- und Dokumentationswissenschaft
  8. Niemann, C.: Tag-Science : Ein Analysemodell zur Nutzbarkeit von Tagging-Daten (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1164) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1164,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1164, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1164)
      0.25 = coord(1/4)
    
    Abstract
    Social-Tagging-Systeme, die sich für das Wissensmanagement rapide wachsender Informationsmengen zunehmend durchsetzen, sind ein ambivalentes Phänomen. Sie bieten Kundennähe und entfalten ein beachtliches kreatives Potenzial. Sie erzeugen aber ebenso große Mengen völlig unkontrollierter Meta-Informationen. Aus Sicht gepflegter Vokabularien, wie sie sich etwa in Thesauri finden, handelt es sich bei völlig frei vergebenen Nutzerschlagwörtern (den "Tags") deshalb um "chaotische" Sacherschließung. Andererseits ist auch die These einer "Schwarmintelligenz", die in diesem Chaos wertvolles Wissen als Gemeinschaftsprodukt erzeugt, nicht von der Hand zu weisen. Die Frage ist also: Wie lassen sich aus Tagging-Daten Meta-Informationen generieren, die nach Qualität und Ordnung wissenschaftlichen Standards entsprechen - nicht zuletzt zur Optimierung eines kontrollierten Vokabulars? Der Beitrag stellt ein Analysemodell zur Nutzbarkeit von Tagging-Daten vor.
    Source
    ¬Die Kraft der digitalen Unordnung: 32. Arbeits- und Fortbildungstagung der ASpB e. V., Sektion 5 im Deutschen Bibliotheksverband, 22.-25. September 2009 in der Universität Karlsruhe. Hrsg: Jadwiga Warmbrunn u.a
  9. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1181,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.25 = coord(1/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  10. Wiesenmüller, H.: ¬Die Zukunft der Bibliotheksverbünde : Ein kritischer Blick auf die Empfehlungen des Wissenschaftsrates und der Deutschen Forschungsgemeinschaft (2011) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1202) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1202,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1202, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1202)
      0.25 = coord(1/4)
    
    Abstract
    Ende 2006 beauftragte die Kultusministerkonferenz den Wissenschaftsrat mit einer Evaluierung der deutschen Bibliotheksverbünde - Mitte 2009 begannen die Arbeiten. Als Abschlussbericht wurden am 28. Januar 2011 »Empfehlungen zur Zukunft des bibliothekarischen Verbundsystems in Deutschland« vorgelegt. Die Gutachter hatten dabei nicht mehr einzelne regionale Verbünde, sondern ein Gesamtsystem auf nationaler Ebene vor Augen. Parallel dazu beschäftigte sich der »Ausschuss für wissenschaftliche Bibliotheken und Informationssysteme« der Deutschen Forschungsgemeinschaft mit dem Thema und veröffentlichte am 2. Februar 2011 ein knapper gehaltenes »Positionspapier zur Weiterentwicklung der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Die Papiere unterscheiden sich in Nuancen, haben aber denselben Grundtenor. Schließlich präsentierten die beiden eine dreiseitige gemeinsame Erklärung »Zur Zukunft der Bibliotheksverbünde als Teil einer überregionalen Informationsinfrastruktur«. Ihr Gesamturteil ist überaus kritisch. Im folgenden Beitrag nimmt Heidrun Wiesenmüller, Professorin an der Hochschule der Medien in Stuttgart, Stellung zu den Empfehlungen.
  11. Szott, S.: Vom Prototypen zum nachhaltigen Hosting-Service : die Resource Discovery Lösung ALBERT (2012) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1339) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1339,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1339, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1339)
      0.25 = coord(1/4)
    
    Abstract
    Die KOBV-Verbundzentrale verfolgt bereits seit vielen Jahren die unterschiedlichen Entwicklungen beim Einsatz von Suchmaschinentechnologien in Bibliotheksanwendungen. In mehreren Projekten wurden dazu prototypische Entwicklungen erarbeitet, die nach Abschluss der Projektphase in den Regelbetrieb überführt wurden. Beispielhaft sei hier auf den KOBV-Volltextserver verwiesen, einer in Zusammenarbeit mit dem Friedrich-Althoff-Konsortium entwickelten Fall-Back-Archivlösung mit ca. zwei Millionen Volltext-Zeitschriftenartikeln, oder das Projekt OPUSSoIr, bei dem eine auf Apache Solr basierende Metadaten- und Volltextsuche in die im Verbund betriebenen OPUS3-Instanzen integriert wurde. Im Rahmen der Entwicklung der Open Source Repository-Software OPUS44 konnten diese Erfahrungen erfolgreich nachgenutzt werden, so dass OPUS4 bereits in der Standardauslieferung über eine integrierte Retrievalmöglichkeit verfügt. Die Synergieeffekte der unterschiedlichen Entwicklungen zeigen sich auch im Aufbau eines Solr-basierten Verbundindexes, der in den KVK (Karlsruher Virtueller Katalog') integriert wurde und dort ein schnelles Retrieval in ca. 12 Mio. Datensätzen ermöglicht. Der KOBV-Bibliothekenführer6 ermöglicht die Präsentation und Suche der Verbundbibliotheken. Neben der klassischen Kriteriensuche (Name, Sigel, Schlagwort, etc.) wird auch eine räumliche Suche (Umkreissuche) angeboten.
  12. ¬Die deutsche Zeitschrift für Dokumentation, Informationswissenschaft und Informationspraxis von 1950 bis 2011 : eine vorläufige Bilanz in vier Abschnitten (2012) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1402) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1402,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1402, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1402)
      0.25 = coord(1/4)
    
    Footnote
    Besteht aus 4 Teilen: Teil 1: Eden, D., A. Arndt, A. Hoffer, T. Raschke u. P. Schön: Die Nachrichten für Dokumentation in den Jahren 1950 bis 1962 (S.159-163). Teil 2: Brose, M., E. durst, D. Nitzsche, D. Veckenstedt u. R. Wein: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1963-1975 (S.164-170). Teil 3: Bösel, J., G. Ebert, P. Garz,, M. Iwanow u. B. Russ: Methoden und Ergebnisse einer statistischen Auswertung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) 1976 bis 1988 (S.171-174). Teil 4: Engelage, H., S. Jansen, R. Mertins, K. Redel u. S. Ring: Statistische Untersuchung der Fachzeitschrift "Nachrichten für Dokumentation" (NfD) / "Information. Wissenschaft & Praxis" (IWP) 1989-2011 (S.164-170).
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.3, S.157-182
  13. Hubrich, J.: Vom Stringmatching zur Begriffsexploration : das Potential integrierter begrifflicher Interoperabilität (2013) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1793) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1793,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1793, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1793)
      0.25 = coord(1/4)
    
    Abstract
    Als Reaktion auf die mit fortschreitender Internationalisierung sich wandelnden Anforderungen an Informationsräume und Wissensorganisationssysteme haben sich verschiedene Modelle semantischer Interoperabilität herausgebildet, die darauf abzielen, mittels einer Verbindung von Begriffen verbreiteter Dokumentationssprachen eine Grundlage für effizientere Recherchen in heterogenen Informationsräumen zu schaffen. Diese können sowohl in Hinblick auf die in ihnen enthaltenen Eigenschaften zur Unterstützung von Suchprozessen als auch nach Art der Datenhaltung differenziert werden. Im Artikel werden die unterschiedlichen Interoperabilitätskonzepte und ihr jeweiliger Mehrwert für den thematischen Zugriff auf Informationen vorgestellt. Das Potential integrierter begrifflicher Interoperabilität insbes. zur Unterstützung von explorativen Suchprozessen wird unter Rückgriff auf die in dem DFG-Projekt CrissCross erstellten Mappings zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) veranschaulicht.
  14. Sporer, T.; Meyer, P.; Steinle, M.: Begleitstudium als Modell zur Einbettung informellen Lernens in das Universitätsstudium (2013) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1920) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1920,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1920, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1920)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag stellt ein Modell zur Einbettung informellen .Lernens in das Universitätsstudium vor. Es handelt sich dabei nicht um informelle Lernen im Sinne der Nutzung des Internets durch die Studierenden, sondern um. Lernen in selbstorganisierten Projekten, das außerhalb des normalen Fachstudiums stattfindet. Es wird gezeigt, wie die Mitarbeit der Studierenden in extra-curricularen Projektgruppen in das Studienangebot "Begleitstudium Problemlöse-kompetenz" (kurz: Begleitstudium) eingebunden wird. Im Fokus des Beitrags steht dabei die Erläuterung technischer und organisatorischer Aspekte des Begleitstudiums. Nach einer kurzen Beschreibung des Studienangebots werden die Organisation, die IT-Unterstützung bei der Projekt- und Portfolioarbeit sowie die curriculare Einbettung des Begleitstudiums in den Studiengang "Medien und Kommunikation" (MuK) der Universität Augsburg erläutert.
  15. Herb, U.: Relevanz von Impact-Maßen für Open Access (2013) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1926) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1926,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1926, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1926)
      0.25 = coord(1/4)
    
    Abstract
    Die Anwendung bibliometrischer Verfahren ist sowohl für Wissenschaftler als auch für Organisationen höchst relevant: Individuelle Karriere und Evaluierung von Fachbereichen sind abhängig von der Bewertung des Publikationsverhaltens. Der Beitrag eruiert, warum Open-Access-Publikationen in solchen Bewertungen benachteiligt werden, wie die in der Evaluierung üblicherweise herangezogenen bibliometrischen Verfahren (v.a. der Journal impact Factor JIF) funktionieren, welche Alternativen zu diesen zitationsbasierten Verfahren existieren und zu welchen Ergebnissen sie kommen. Unter der Annahme, dass Open-Access-Publikationen nicht qua geringer Qualität geringere Wertschätzung in der Evaluierung und bei Berufungskommissionen erfahren, sondern aufgrund methodischer Eigenheiten der Evaluierungsinstrumente, wird diskutiert, inwiefern alternative Qualitätsmessungsverfahren sich vorteilhaft auf die Akzeptanz von Open Access auswirken können.
  16. Bornmann, L.: Lässt sich die Qualität von Forschung messen? (2013) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 1928) [ClassicSimilarity], result of:
          0.030759454 = score(doc=1928,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 1928, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1928)
      0.25 = coord(1/4)
    
    Abstract
    Grundsätzlich können wir bei Bewertungen in der Wissenschaft zwischen einer 'qualitative' Form, der Bewertung einer wissenschaftlichen Arbeit (z. B. eines Manuskripts oder Forschungsantrags) durch kompetente Peers, und einer 'quantitative' Form, der Bewertung von wissenschaftlicher Arbeit anhand bibliometrischer Indikatoren unterscheiden. Beide Formen der Bewertung sind nicht unumstritten. Die Kritiker des Peer Review sehen vor allem zwei Schwächen des Verfahrens: (1) Verschiedene Gutachter würden kaum in der Bewertung ein und derselben wissenschaftlichen Arbeit übereinstimmen. (2) Gutachterliche Empfehlungen würden systematische Urteilsverzerrungen aufweisen. Gegen die Verwendung von Zitierhäufigkeiten als Indikator für die Qualität einer wissenschaftlichen Arbeit wird seit Jahren eine Vielzahl von Bedenken geäußert. Zitierhäufigkeiten seien keine 'objektiven' Messungen von wissenschaftlicher Qualität, sondern ein kritisierbares Messkonstrukt. So wird unter anderem kritisiert, dass wissenschaftliche Qualität ein komplexes Phänomen darstelle, das nicht auf einer eindimensionalen Skala (d. h. anhand von Zitierhäufigkeiten) gemessen werden könne. Es werden empirische Ergebnisse zur Reliabilität und Fairness des Peer Review Verfahrens sowie Forschungsergebnisse zur Güte von Zitierhäufigkeiten als Indikator für wissenschaftliche Qualität vorgestellt.
  17. Endres-Niggemeyer, B.: Thinkie: Lautes Denken mit Spracherkennung (mobil) (2013) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 2145) [ClassicSimilarity], result of:
          0.030759454 = score(doc=2145,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 2145, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2145)
      0.25 = coord(1/4)
    
    Abstract
    Lautes Denken ist eine bewährte Methode zum Erforschen kognitiver Prozesse. Es wird in vielen Disziplinen benutzt, z. B. um aufzudecken, welche Erfahrungen Benutzer bei der Interaktion mit Computerschnittstellen machen. Nach einer kurzen Erklärung des Lauten Denkens wird die App Thinkie vorgestellt. Thinkie ist eine mobile Lösung für das Laute Denken auf iPhone und iPad. Die Testperson nimmt auf dem iPhone den Ton auf. Die Spracherkennungssoftware Siri (http://www.apple.com/de/ios/siri/) transkribiert ihn. Parallel wird auf dem iPad oder einem anderen Gerät gefilmt. Auf dem iPad kann man - mit Video im Blick - das Transkript aufarbeiten und interpretieren. Die Textdateien transportiert Thinkie über eine Cloud-Kollektion, die Filme werden mit iTunes übertragen. Thinkie ist noch nicht tauglich für den praktischen Gebrauch. Noch sind die Sequenzen zu kurz, die Siri verarbeiten kann. Das wird sich ändern.
    Source
    Information - Wissenschaft und Praxis. 64(2013) H.6, S.311-322
  18. Poley, C.: LIVIVO: Neue Herausforderungen an das ZB MED-Suchportal für Lebenswissenschaften (2016) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3173,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3173, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3173)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Zentralbibliothek für Medizin (ZB MED) hat als Anbieterin von Suchportalen in den Lebenswissenschaften eine lange Tradition. Mit LIVIVO steht seit 2015 ein neues Produkt zur Verfügung, das erstmals das gesamte Fächerspektrum von ZB MED abdeckt: Medizin, Gesundheit, Ernährungs-, Umwelt- und Agrarwissenschaften. In der Anfangsphase von LIVIVO stand der Aufbau eines modernen Fachportals mit einer neuen Suchmaschine im Vordergrund, das die Funktionalitäten der Vorgängerportale miteinander vereinigt. Dabei wurde eine neue Weboberfläche entwickelt, die sich durch eine hohe Benutzerfreundlichkeit und ein responsives Webdesign auszeichnet. Das große Potential für die Entwicklung von LIVIVO liegt im Bereitstellen von Suchdiensten basierend auf den mehr als 55 Millionen Metadatensätzen. Aktuelle Arbeiten von ZB MED beschäftigen sich nun damit, automatische Schnittstellen für Suchservices anzubieten. Gleichzeitig wird mit dem Aufbau des ZB MED-Knowledge-Environment eine unverzichtbare Datenbasis für Forschungsarbeiten an ZB MED geschaffen. Dieser Aufsatz wird auf die aktuellen Herausforderungen eines wissenschaftlichen Portals am Beispiel von LIVIVO eingehen, Lösungsansätze skizzieren und davon ausgehend die Entwicklungslinien vorzeichnen.
  19. Franke, F.: ¬Das Framework for Information Literacy : neue Impulse für die Förderung von Informationskompetenz in Deutschland?! (2017) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3248) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3248,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3248, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3248)
      0.25 = coord(1/4)
    
    Abstract
    Das Framework for Information Literacy for Higher Education wurde im Januar 2016 vom Vorstand der Association of College & Research Libraries (ACRL) beschlossen. Es beruht auf der Idee von "Threshold Concepts" und sieht Informationskompetenz in einem engen Zusammenhang mit Wissenschaft und Forschung. Dadurch legt es bei der Vermittlung von Informationskompetenz eine starke Betonung auf das "Warum", nicht nur auf das "Was". Der Ansatz des Framework wird vielfach kontrovers diskutiert. Bietet er tatsächlich eine neue Sichtweise auf die Förderung von Informationskompetenz oder ist er überwiegend alter Wein in neuen Schläuchen? Kann das Framework neue Impulse für die Aktivitäten an den Bibliotheken in Deutschland setzen oder beschreibt es etwas, was wir längst machen? Der Beitrag versucht, Anregungen zu geben, welche Konsequenzen das Framework für unsere Kurse haben kann und welche veränderten Lernziele mit ihm verbunden sein können. Dabei plädiert er für ein umfassendes Verständnis von Informationskompetenz, das sich nicht auf Einzelaspekte wie Recherchekompetenz beschränkt.
  20. Faßnacht, M.: "Druckt die GND Nummer in der Publikation ab!" : Vereinfachung der Normdatenverwendung in Bibliotheken und Datenbanken (2014) 0.01
    0.0076898634 = product of:
      0.030759454 = sum of:
        0.030759454 = weight(_text_:und in 3393) [ClassicSimilarity], result of:
          0.030759454 = score(doc=3393,freq=6.0), product of:
            0.12078692 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05446006 = queryNorm
            0.25465882 = fieldWeight in 3393, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3393)
      0.25 = coord(1/4)
    
    Abstract
    Normdateien lösen das Problem von unterschiedlichen Namensschreibweisen, Übersetzungen und Namensdoppelungen. Nationale oder an Sprachräume gebundene Normdaten sind mittlerweile im "Virtual International Authority File" Projekt (VIAF) über Konkordanzen miteinander verlinkt. Neben diesen von Bibliotheken erstellten Normdaten entstehen aber auch in anderen Kontexten Identifizierungssysteme, die die Uneindeutigkeit von Personennamen in sehr großen Datenmengen beseitigen sollen. Ein arbeitsaufwändiges Problem ist dabei aber immer noch nicht gelöst: nach wie vor müssen Bibliothekare die Identität der Autoren mühsam recherchieren. Wie einfach wäre es, wenn die GND oder LoC Nummer beim Namen des Autors abgedruckt wäre! An einem Pilotprojekt der UB Tübingen wird demonstriert, wie durch die Zusammenarbeit von Herausgeber, Verlag und Bibliothek die GND-Nummern der Autoren in der Publikation abgedruckt werden können.

Languages

  • d 1631
  • e 213
  • a 1
  • More… Less…

Types

  • a 1375
  • el 403
  • m 279
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications