-
Geißler, S.: Maschinelles Lernen und NLP : Reif für die industrielle Anwendung! (2019)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 4547) [ClassicSimilarity], result of:
0.040750347 = score(doc=4547,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 4547, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4547)
0.25 = coord(1/4)
- Abstract
- Anwendungen von maschinellen Lernverfahren (ML) haben in jüngster Zeit aufsehenerregende Durchbrüche bei einer ganzen Reihe von Aufgaben in der maschinellen Sprachverarbeitung (NLP) erzielt. Der Fokus vieler Arbeiten liegt hierbei in der Entwicklung immer besserer Modelle, während der Anteil der Aufgaben in praktischen Projekten, der sich nicht mit Modellbildung, sondern mit Themen wie Datenbereitstellung sowie Evaluierung, Wartung und Deployment von Modellen beschäftigt, oftmals noch nicht ausreichend Beachtung erfährt. Im Ergebnis fehlen gerade Unternehmen, die nicht die Möglichkeit haben, eigene Plattformen für den Einsatz von ML und NLP zu entwerfen, oft geeignete Werkzeuge und Best Practices. Es ist zeichnet sich ab, dass in den kommenden Monaten eine gerade diesen praktischen Fragen zugewandte Ingenieurssicht auf ML und ihren Einsatz im Unternehmen an Bedeutung gewinnen wird.
- Source
- Information - Wissenschaft und Praxis. 70(2019) H.2/3, S.134-140
-
Hermsdorf, D.: Info-Überfluss, Hyper-Konkurrenz, Entortung, digitale Verlustmodelle (2017)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 4575) [ClassicSimilarity], result of:
0.040750347 = score(doc=4575,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 4575, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4575)
0.25 = coord(1/4)
- Abstract
- Die Gefahr ist seit Jahren erkannt, aber keineswegs gebannt: Internet-Folgen treffen Öffentlichkeit und Arbeitswelt bis ins Mark. Wer darf bei diesem Artikel gähnen? - Nicht einmal der Gemüsehändler, dem künftig Lieferdienste das Wasser abgraben. Nicht der Gitarren-Lehrer, der plötzlich weltweite Konkurrenz erhält. Und erst recht nicht der zu diesem Thema schon häufiger besprochene Journalist, dessen Angebote mit tausendfacher Gratis-Ware im Netz konkurrieren. Digitalisierung, Vernetzung und Automatisierung sind Prinzipien, mit denen verantwortliche Politiker im Lebensalter 40+ weder in ihrem Studium noch einem früheren Berufsleben, so vorhanden, eigene Erfahrungen machten. Vorab dazu dies Wesentliche: Nicht alle absehbaren Entwicklungen sind apokalyptisch. Bei allen Armuts- und Gewaltproblemen im Rest der Welt blinken sie für die Industrienationen geradezu verheißungsvoll, was die Reduktion von körperlicher Belastung und Zeitaufwand der Werktätigen betrifft. Für eine wünschenswerte Realisierung des "Arbeitens 4.0" (so der Titel eines Weißbuchs vom Arbeitsministerium) sind jedoch weitere Paradigmenwechsel in Miteinander und Administration dringend erforderlich, wie gleich zu zeigen.
-
Mainzer, K.; Pöppel, E.; Ritter, H.: Was hat uns die Zukunft gebracht? : eine Diskussion. Die Fragen stellten Dieter Beste und Marion Kälke (2017)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 103) [ClassicSimilarity], result of:
0.040750347 = score(doc=103,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 103, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=103)
0.25 = coord(1/4)
- Abstract
- Im Jahr 1997 besiegte der Schachcomputer Deep Blue den Weltmeister Garri Kasparow. Über die Bedeutung dieser Großtat der künstlichen Intelligenz diskutierten damals drei Experten in "Spektrum der Wissenschaft" (Heft 10/1997). Heute, fast genau 20 Jahre später, fielen mit Go und Poker zwei weitere Bastionen menschlicher Überlegenheit im Spiel. Und erneut bitten wir Klaus Mainzer, Ernst Pöppel und Helge Ritter um ihre Einschätzung. Auf dem 3. Zukunftskongress "Technik zum Menschen bringen" des Bundesministeriums für Bildung und Forschung (BMBF) diskutieren die drei Wissenschaftler über Durchbrüche, die keiner auf dem Plan hatte, mangelnden Erkenntnisfortschritt und ob der digitale Neandertaler überhaupt noch eine Zukunft hat.
-
Strube, S.: Eine Woche billige Klickarbeit machte mich zum digitalen Lumpenproletarier (2014)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 164) [ClassicSimilarity], result of:
0.040750347 = score(doc=164,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 164, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=164)
0.25 = coord(1/4)
- Abstract
- Meine Karriere als Crowdworker hat mir einen maximalen Stundenlohn von vier Euro und einen dystopischen Einblick in die digitale Arbeiterschaft von morgen eingebracht. Digitalisierung und Hyperkapitalismus globalisieren nicht nur unseren Freundeskreis, sondern bescheren uns auch neuartige Formen der Lohnarbeit. In den letzten Jahren entwickelte sich im Netz ein unterbezahltes Klickproletariat, in dem sich der Arbeiter selbstverantwortlich gegen eine große unbekannte Konkurrenz von Mikro-Jobbern abschuftet. November 2005: Amazon stellt eine neue Website ins Netz. Sie heißt Mechanical Turk und soll ein ganz bestimmtes Problem lösen: Seit Kurzem verkauft der Onlinebuchhändler nämlich auch CDs. Da Amazon 2005 schon ein Gigant im Onlinehandel ist, geht es dabei nicht nur um ein paar CDs, sondern um Hunderttausende-und diese Angebote müssen ganz schnell ihren Weg auf die Webseite finden. Die Herausforderung dabei: Jemand muss überprüfen, ob die Cover jugendfrei sind, ob alle Liedtitel richtig angezeigt werden, ob die Sänger- und Komponistennamen stimmen.
- Source
- https://motherboard.vice.com/de/article/aekpag/Billige-Clickarbeit-und-das-digitale-Lumpenproletariat-919
-
Lauber-Reymann, M.: Informationsressourcen : ein Handbuch für Bibliothekare und Informationsspezialisten (2010)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 266) [ClassicSimilarity], result of:
0.040750347 = score(doc=266,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 266, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=266)
0.25 = coord(1/4)
- Abstract
- Dieser Band bietet Informationsspezialisten eine aktuelle Einführung in den Umgang mit Informationsressourcen. Neben den theoretischen Grundlagen werden ca.400 allgemeine und fachspezifische Informationsressourcen ausgewählt und deren Inhalte, Funktionen und Bedeutung beschrieben. Damit wird ein Grundwissen zu Informationsressourcen vermittelt, das direkt in der Praxis einsetzbar ist. Einzige Einführung dieser Art im deutschsprachigen Raum. Klassische Werke zur Einführung in die Bibliografie sind nicht mehr aktuell. Neuer Schwerpunkt auf der Auswahl und Wertung der Relevanz der Informationsmittel
- Series
- Bibliotheks- und Informationspraxis ; 42
-
Lewandowski, D.: Suchmaschinen verstehen (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 293) [ClassicSimilarity], result of:
0.040750347 = score(doc=293,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 293, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=293)
0.25 = coord(1/4)
- Abstract
- Suchmaschinen sind heute die wichtigsten Werkzeuge, um an Informationen zu gelangen. Wir verwenden Suchmaschinen täglich, meist ohne weiter darüber nachzudenken. Doch wie funktionieren diese Suchwerkzeuge eigentlich genau? Das Buch betrachtet Suchmaschinen aus vier Perspektiven: Technik, Nutzung, Recherche und gesellschaftliche Bedeutung. Es bietet eine klar strukturierte und verständliche Einführung in die Thematik. Zahlreiche Abbildungen erlauben eine schnelle Erfassung des Stoffs. Neben einer ausführlichen Darstellung der in den bekannten Suchmaschinen verwendeten Rankingverfahren wird auch ausführlich auf das Nutzerverhalten eingegangen, das wiederum die Ergebnisdarstellung prägt. Dazu kommen grundlegende Betrachtungen des Suchmaschinenmarktes, der Bedeutung der Suchmaschinenoptimierung und der Rolle der Suchmaschinen als technische Informationsvermittler. Das Buch richtet sich an alle, die mit Suchmaschinen zu tun haben und ein umfassendes Verständnis dieser Suchwerkzeuge erlangen wollen, u.a. Suchmaschinenoptimierer, Entwickler, Informationswissenschaftler, Bibliothekare, Rechercheure in Wissenschaft und Praxis sowie Online-Marketing-Verantwortliche. Für die zweite Auflage wurde der Text vollständig überarbeitet. Neben einem neuen Kapitel zur Suchmaschinenwerbung wurden zahlreiche Abschnitte zu neu aufgekommenen Themen hinzugefügt. Alle Statistiken und Quellen wurden auf den neuesten Stand gebracht.
-
Hiemenz, B.M.; Kuberek, M.: Leitlinie? Grundsätze? Policy? Richtlinie? : Forschungsdaten-Policies an deutschen Universitäten (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.040750347 = score(doc=346,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 346, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=346)
0.25 = coord(1/4)
- Abstract
- Die Anzahl der Forschungsdaten-Policies an deutschen Universitäten ist seit 2014 deutlich gestiegen und die Kurve geht kontinuierlich nach oben. Eine Besonderheit der deutschen Policies ist auf den ersten Blick ersichtlich: Es gibt keine einheitliche Bezeichnung - verwendet werden "Leitlinie", "Grundsätze", "Policy", "Richtlinie". Auch zeigen die Policies deutliche Unterschiede auf, was Umfang und Inhalte angeht. Um die Forschungsdaten-Policies an deutschen Universitäten weiter zu befördern, entwickelt die Technische Universität Berlin seit August 2017 im BMBF-Projekt "Modalitäten und Entwicklung institutioneller Forschungsdaten-Policies" entsprechende Handlungsanleitungen. Ziel der ersten Projektphase ist die Konzeptionierung und Erstellung eines "Baukastens" für institutionelle Forschungsdaten-Policies ("Policy-Kit"). Als methodischer Ansatz werden ForschungsdatenPolicies deutscher Hochschulen gesammelt und evaluiert und mit internationalen Empfehlungen zu Forschungsdaten-Policies abgeglichen. Die Ergebnisse werden in diesem Artikel vorgestellt.
-
Perry, A.; Recker, J.: Sozialwissenschaftliche Forschungsdaten langfristig sichern und zugänglich machen : Herausforderungen und Lösungsansätze (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 353) [ClassicSimilarity], result of:
0.040750347 = score(doc=353,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 353, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=353)
0.25 = coord(1/4)
- Abstract
- Sozialwissenschaftlerinnen und -wissenschaftler sind gemäß der guten wissenschaftlichen Praxis dazu angehalten, den Forschungsprozess möglichst transparent zu halten, ihre Forschungsergebnisse reproduzierbar zu machen und im Sinne von "Open Science" erhobene Daten für die Nachnutzung zur Verfügung zu stellen. Dies ist allerdings mit einigen Hürden verbunden. So müssen nachnutzbare Daten so dokumentiert werden, dass sie für Dritte auffindbar und verständlich sind. Gleichzeitig müssen personenbezogene Daten der Teilnehmenden ausreichend geschützt werden. Forschende sind hier auf Unterstützung angewiesen, um diesen Ansprüchen an die empirische Forschung gerecht zu werden. Dieser Artikel geht zunächst auf die Hürden bei der Bereitstellung von sozialwissenschaftlichen Forschungsdaten ein und stellt dann Dienstleistungen des GESIS Datenarchivs für Sozialwissenschaften vor, die Forschenden helfen, diese Hürden zu meistern.
-
Koch, M.: Bewusstsein ohne Gehirn : kann man den Geist eines Menschen auf eine Maschine übertragen? (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 436) [ClassicSimilarity], result of:
0.040750347 = score(doc=436,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 436, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=436)
0.25 = coord(1/4)
- Abstract
- Die Frage, in welchem Verhältnis Leib und Seele beziehungsweise Materie und Geist zueinanderstehen, beschäftigt Wissenschaftler und Philosophen schon seit Langem. Eine viel zitierte Antwort gab Mitte des 19. Jahrhunderts der deutsch-schweizerische Naturforscher Carl Vogt. In seinen »Physiologischen Briefen« erklärte er, »dass all jene Fähigkeiten, die wir unter dem Namen Seelentätigkeiten begreifen, nur Funktionen der Gehirnsubstanz sind, oder, um mich einigermaßen grob auszudrücken, dass die Gedanken in demselben Verhältnis zu dem Gehirn stehen, wie die Galle zur Leber oder der Urin zu den Nieren«. Einer, der Vogt hier entschieden widersprach, war Wladimir I. Lenin. In seinem Buch »Materialismus und Empiriokritizismus« belegte er dessen Auffassung mit dem wenig schmeichelhaften Adjektiv »vulgärmaterialistisch«. Denn Empfindungen und davon abgeleitete Gedanken seien nicht materiell, sondern subjektive Abbilder der objektiven Welt, so Lenin. An einer Idee indes hielt er fest. Er beschrieb Geist und Bewusstsein als »höchste Produkte der in besonderer Weise organisierten Materie«, sprich des Gehirns.
-
Reiser, W.: Two Riders were approaching : Der Anfang vom Ende der deutschen Medien (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 446) [ClassicSimilarity], result of:
0.040750347 = score(doc=446,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 446, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=446)
0.25 = coord(1/4)
- Abstract
- Es gehört zum Komplettversagen der Linken, dass sie sich die Sache mit der Lügenpresse von den Dumpfbacken der Pegida aus der Hand nehmen ließ. Seit dem experimentellen Kosovo-Fake haben sich "unsere" Medien von ihrer grundsätzlichen Funktion verabschiedet und sich schrittweise von ihrer Existenzberechtigung befreit. Wer die "Arbeit" der öffentlich-rechtlichen Sender und der "führenden" Tageszeitungen&Magazine über den Zeitraum 1990- 2018 verfolgen konnte oder musste und noch einen Funken historisches Bewusstsein in sich trägt, weiß . Menschen, die in diesem frühen September 2018 in meinem Schwabinger Kaffeehaus nach wenigen Minuten eines Leseversuchs ihre einst so geliebte SZ zu Seite legen, fragen mich immer wieder - da sie gehört haben, dass ich für eine sehr lange Zeit für viele nennenswerte Printorgane gearbeitet habe, was eigentlich aus uns Journalisten geworden ist, wann das "irgendwie" alles begann mit dem sittlichen Zerfall und ob sich die Branche irgendwann einmal wieder von dieser Implosion erholen wird und ob das eine Delle ist oder eine Art Grippe, wie Aids halt und man das wieder in den Griff bekommt.
-
Rohner, M.: Betrachtung der Data Visualization Literacy in der angestrebten Schweizer Informationsgesellschaft (2018)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 585) [ClassicSimilarity], result of:
0.040750347 = score(doc=585,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 585, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=585)
0.25 = coord(1/4)
- Abstract
- Datenvisualisierungen sind ein wichtiges Werkzeug, um Inhalte und Muster in Datensätzen zu erkennen und ermöglichen so auch Laien den Zugang zu der Information, die in Datensätzen steckt. Data Visualization Literacy ist die Kompetenz, Datenvisualisierungen zu lesen, zu verstehen, zu hinterfragen und herzustellen. Data Visulaization Literacy ist daher eine wichtige Kompetenz der Informationsgesellschaft. Im Auftrag des Bundesrates hat das Bundesamt für Kommunikation BAKOM die Strategie "Digitale Schweiz" entwickelt. Die Strategie zeigt auf, wie die fortschreitende Digitalisierung genutzt und die Schweiz zu einer Informationsgesellschaft entwickelt werden soll. In der vorliegenden Arbeit wird untersucht, inwiefern die Strategie "Digitale Schweiz" die Förderung von Data Visualization Literacy in der Bevölkerung unterstützt. Dazu werden die Kompetenzen der Data Visualization Literacy ermittelt, Kompetenzstellen innerhalb des Bildungssystems benannt und die Massnahmen der Strategie in Bezug auf Data Visualization Literacy überprüft.
- Imprint
- Chur : Hochschule für Technik und Wirtschaft / Arbeitsbereich Informationswissenschaft
-
Daum, T.: ¬Die künstliche Intelligenz des Kapitals (2019)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 9) [ClassicSimilarity], result of:
0.040750347 = score(doc=9,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 9, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=9)
0.25 = coord(1/4)
- Abstract
- Künstliche Intelligenz: eine Technologie, die von Tag zu Tag mehr in Massenprodukte einfließt und zum wichtigsten Markt im digitalen Kapitalismus wird. Doch was ist eigentlich Intelligenz, und ist das ein adäquater Begriff für Software, deren Reaktionen wir intuitiv für »intelligent« halten und damit grosses Vertrauen schenken? Wie »lernen« Algorithmen? Lassen sich ihre Schlussfolgerungen verstehen oder kontrollieren? Im politischen Kontext stellt sich die Frage, wem die Algorithmen und Daten, die Produktionsmittel der KI-Ökonomie, gehören, wer sie kontrolliert und wer die Verantwortung für ihre Entscheidungen trägt. Wenn Künstliche Intelligenz bei Kreditverträgen, Jobvergabe, der Höhe von Versicherungsbeiträgen und sogar bei der Rechtsprechung Einfluss nimmt, wenn Sprachassistenten unseren Alltag ständig begleiten, was bedeutet das für den Einzelnen? Wenn globale Unternehmen mit KI Geld verdienen, was bedeutet das für die Gesellschaft? Timo Daum liefert eine konzise linke Kritik mit politischen Perspektiven.
-
Frank, S.; Frank, M.: Spannungsfeld zwischen Bibliotheks-/Informationswissenschaft und Bibliotheksinformatik : Teil 1 von: Bibliothekarische Studiengänge an der HTWK Leipzig: Veränderung und Kontinuität (2019)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 366) [ClassicSimilarity], result of:
0.040750347 = score(doc=366,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 366, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=366)
0.25 = coord(1/4)
- Abstract
- Die bibliothekarische Ausbildung in Leipzig blickt auf eine über hundertjährige Geschichte zurück - ein Zeitraum, in dem Bibliotheken tiefgreifende Veränderungen erfahren haben. Der Übergang von der Thekenbücherei zur Freihandbibliothek beispielsweise erzwang Anpassungen in Organisation und Arbeitsabläufen, definierte das Verhältnis zwischen Bibliothek und Nutzer neu und wirkte sich letztlich auch auf die Bibliotheksbestände aus. Einschnitte dieser Art werden auch im Zusammenhang mit der Umbruchsituation diskutiert, in der wir uns derzeit befinden: der Digitalisierung. Ihre Auswirkungen sind noch nicht klar abzusehen, wodurch die bibliothekarische Hochschulbildung vor neue Herausforderungen gestellt wird.
- Content
- Fortsetzung als 'Inhaltserschließung, spartenübergreifendes Studium und integrierende Möglichkeiten von Informationssystemen' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=774&wysijap=subscriptions&user_id=1045.
-
Mengel, T.: Wie viel Terminologiearbeit steckt in der Übersetzung der Dewey-Dezimalklassifikation? (2019)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 603) [ClassicSimilarity], result of:
0.040750347 = score(doc=603,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 603, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=603)
0.25 = coord(1/4)
- Abstract
- Bibliotheken weltweit setzen die Dewey-Dezimalklassifikation (DDC) als Aufstellungssystematik und/oder zur Katalogsuche ein. Es existieren Übersetzungen der DDC in über 30 Sprachen. Als ein umfassendes System zur Ordnung von Wissen bestehend aus numerischen Notationen und sprachlichen Klasseninhalten bietet die DDC dem Terminologen bzw. der Terminologin ein weites Arbeits- und Forschungsfeld. Aber wie spielen Terminologiearbeit und Übersetzung zusammen, wenn, wie in diesem Fall, die Terminologie selbst das Übersetzungsobjekt ist? Der Aufsatz kann nicht alle Themen erschöpfend behandeln, aber er präsentiert Merkmale der DDC erstmals aus der Perspektive der DDC-Übersetzungsarbeit, und er wirft die Frage auf, ob dem Aspekt der Terminologiearbeit in der DDC-Übersetzung bislang tatsächlich genügend Aufmerksamkeit geschenkt wurde.
- Series
- Kommunikation und Medienmanagement - Springer eBooks. Computer Science and Engineering
-
Weidenbach, V.: Weiß und gold oder blau und schwarz : welche Farbe hat das Kleid? (2015)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 663) [ClassicSimilarity], result of:
0.040750347 = score(doc=663,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 663, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=663)
0.25 = coord(1/4)
- Content
- Ein Foto auf Tumblr von der Nutzerin "Swiked" löste die große Farbdebatte auf Twitter aus. Die Tumblr-Nutzerin "swiked" postete ein Foto ihres Kleides und fragte, welche Farben es habe, weil ihre Freunde sich nicht einigen konnten. Die einen sahen es als blaues Kleid mit schwarzer Spitze und die anderen als weißes Kleid mit goldener Spitze. Der Vorgang wird inzwischen international unter dem Aktenzeichen "#dressgate" geführt. Vgl. auch: https://en.wikipedia.org/wiki/The_dress. https://www.wired.com/2015/02/science-one-agrees-color-dress/. https://gwtoday.gwu.edu/buff-or-blue-gw-experts-weigh-dress-seen-%E2%80%98round-internet.
- Source
- https://www.tagesspiegel.de/gesellschaft/panorama/dressgate-im-februar-2015-weiss-und-gold-oder-blau-und-schwarz-welche-farbe-hat-das-kleid/11435330.html
-
Loonus, Y.: Einsatzbereiche der KI und ihre Relevanz für Information Professionals (2017)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 668) [ClassicSimilarity], result of:
0.040750347 = score(doc=668,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 668, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=668)
0.25 = coord(1/4)
- Abstract
- Es liegt in der Natur des Menschen, Erfahrungen und Ideen in Wort und Schrift mit anderen teilen zu wollen. So produzieren wir jeden Tag gigantische Mengen an Texten, die in digitaler Form geteilt und abgelegt werden. The Radicati Group schätzt, dass 2017 täglich 269 Milliarden E-Mails versendet und empfangen werden. Hinzu kommen größtenteils unstrukturierte Daten wie Soziale Medien, Presse, Websites und firmeninterne Systeme, beispielsweise in Form von CRM-Software oder PDF-Dokumenten. Der weltweite Bestand an unstrukturierten Daten wächst so rasant, dass es kaum möglich ist, seinen Umfang zu quantifizieren. Der Versuch, eine belastbare Zahl zu recherchieren, führt unweigerlich zu diversen Artikeln, die den Anteil unstrukturierter Texte am gesamten Datenbestand auf 80% schätzen. Auch wenn nicht mehr einwandfrei nachvollziehbar ist, woher diese Zahl stammt, kann bei kritischer Reflexion unseres Tagesablaufs kaum bezweifelt werden, dass diese Daten von großer wirtschaftlicher Relevanz sind.
-
Suchenwirth, L.: Sacherschliessung in Zeiten von Corona : neue Herausforderungen und Chancen (2019)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 1485) [ClassicSimilarity], result of:
0.040750347 = score(doc=1485,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 1485, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1485)
0.25 = coord(1/4)
- Abstract
- Eine der wesentlichen Aufgaben als Fachreferent*in ist die inhaltliche Erschließung der neuerworbenen Literatur, sowie die Begutachtung und Auswahl der neu erschienenen Werke in den jeweiligen Fachgebieten hinsichtlich der Relevanz für die eigenen Sammlungen gemäß dem Sammlungsprofil der TU Wien Bibliothek. Im Zuge der Corona-Krise wurde die herkömmliche Arbeitsweise in der Sacherschließung beeinträchtigt, und es haben sich neue Herausforderungen, aber auch Möglichkeiten ergeben. Neben der fehlenden Autopsie der Literatur leidet auch die Sichtung und Erwerbung neuer Literatur unter der physischen Abwesenheit vom Arbeitsplatz bzw. der entsprechenden technischen Infrastruktur. Auch der persönliche Austausch mit den Kolleg*innen wurde deutlich erschwert. Neben den Schwierigkeiten wurden aber auch die neuen Handlungsoptionen auf beruflicher und individueller Ebene positiv gesehen. In dem Artikel werden unsere individuellen Erfahrungen an der TU Wien Bibliothek sowie Ausblicke in die Zukunft wiedergegeben.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 73(2020) H.3/4, S.496-503
-
Brandom, R.B.: Begründen und Begreifen : eine Einführung in den Inferentialismus (2016)
0.01
0.010187587 = product of:
0.040750347 = sum of:
0.040750347 = weight(_text_:und in 1494) [ClassicSimilarity], result of:
0.040750347 = score(doc=1494,freq=12.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.36014193 = fieldWeight in 1494, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1494)
0.25 = coord(1/4)
- Abstract
- Nach seinem bahnbrechenden Werk »Expressive Vernunft«, das Jürgen Habermas als »Meilenstein in der theoretischen Philosophie« bezeichnete, widmet sich Brandom in diesem Buch nun einem zentralen Thema seiner Philosophie, der Klärung des Gebrauchs und Gehalts von Begriffen. Zwei grundlegende Ideen sind dabei entscheidend: Über einen spezifischen begrifflichen Gehalt zu verfügen bedeutet für Brandom, eine bestimmte Rolle im Schlußfolgern zu spielen. Und: Die expressive Rolle des logischen Vokabulars liegt darin, die inferentiellen Beziehungen der Begriffe untereinander explizit zu machen. Ausgehend von diesen Thesen gelingt Brandom eine überraschende Klärung solch wichtiger philosophischer Probleme wie u.a. Normativität, die Intentionalität und Repräsentionalität des Denkens und Sprechens oder die Objektivität begrifflichen Gehalts. »Begründen und Begreifen« kann als Einführung in die Philosophie Brandoms gelesen werden.
-
Dzeyk, W.: Effektiv und nutzerfreundlich : Einsatz von semantischen Technologien und Usability-Methoden zur Verbesserung der medizinischen Literatursuche (2010)
0.01
0.010003153 = product of:
0.040012613 = sum of:
0.040012613 = weight(_text_:und in 416) [ClassicSimilarity], result of:
0.040012613 = score(doc=416,freq=34.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.35362202 = fieldWeight in 416, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=416)
0.25 = coord(1/4)
- Abstract
- In der vorliegenden Arbeit werden die Ergebnisse des MorphoSaurus-Projekts der Deutschen Zentralbibliothek für Medizin (ZB MED) vorgestellt. Ziel des Forschungsprojekts war die substanzielle Verbesserung des Information-Retrievals der medizinischen Suchmaschine MEDPILOT mithilfe computerlinguistischer Ansätze sowie die Optimierung der Gebrauchstauglichkeit (Usability) der Suchmaschinenoberfläche. Das Projekt wurde in Kooperation mit der Averbis GmbH aus Freiburg im Zeitraum von Juni 2007 bis Dezember 2008 an der ZB MED in Köln durchgeführt. Ermöglicht wurde die Realisierung des Projekts durch eine Förderung des Paktes für Forschung und Innovation. Während Averbis die MorphoSaurus-Technologie zur Verarbeitung problematischer Sprachaspekte von Suchanfragen einbrachte und wesentliche Datenbanken der ZB MED in ein Testsystem mit moderner Suchmaschinentechnologie implementierte, evaluierte ein Team der ZB MED das Potenzial dieser Technologie. Neben einem Vergleich der Leistungsfähigkeit zwischen der bisherigen MEDPILOT-Suche und der neuen Sucharchitektur wurde ein Benchmarking mit konkurrierenden Suchmaschinen wie PubMed, Scirus, Google und Google Scholar sowie GoPubMed durchgeführt. Für die Evaluation wurden verschiedene Testkollektionen erstellt, deren Items bzw. Suchphrasen aus einer Inhaltsanalyse realer Suchanfragen des MEDPILOT-Systems gewonnen wurden. Eine Überprüfung der Relevanz der Treffer der Testsuchmaschine als wesentliches Kriterium für die Qualität der Suche zeigte folgendes Ergebnis: Durch die Anwendung der MorphoSaurus-Technologie ist eine im hohen Maße unabhängige Verarbeitung fremdsprachlicher medizinischer Inhalte möglich geworden. Darüber hinaus zeigt die neue Technik insbesondere dort ihre Stärken, wo es um die gleichwertige Verarbeitung von Laien- und Expertensprache, die Analyse von Komposita, Synonymen und grammatikalischen Varianten geht. Zudem sind Module zur Erkennung von Rechtschreibfehlern und zur Auflösung von Akronymen und medizinischen Abkürzungen implementiert worden, die eine weitere Leistungssteigerung des Systems versprechen. Ein Vergleich auf der Basis von MEDLINE-Daten zeigte: Den Suchmaschinen MED-PILOT, PubMed, GoPubMed und Scirus war die Averbis-Testsuchumgebung klar überlegen. Die Trefferrelevanz war größer, es wurden insgesamt mehr Treffer gefunden und die Anzahl der Null-Treffer-Meldungen war im Vergleich zu den anderen Suchmaschinen am geringsten.
Bei einem Vergleich unter Berücksichtigung aller verfügbaren Quellen gelang es mithilfe der MorphoSaurus-Technik - bei wesentlich geringerem Datenbestand - ähnlich gute Resul-tate zu erzielen, wie mit den Suchmaschinen Google oder Google Scholar. Die Ergebnisse der Evaluation lassen den Schluss zu, dass durch den MorphoSaurus-Ansatz die Leistungsfähigkeit von Google oder Google Scholar im Bereich der medizinischen Literatursuche durch eine Erweiterung der vorhandenen Datenbasis sogar deutlich übertroffen werden kann. Zusätzlich zu den Retrieval-Tests wurde eine Usability-Untersuchung der Testsuchmaschine mit Probanden aus der Medizin durchgeführt. Die Testpersonen attestierten dem Such-interface eine hohe Gebrauchstauglichkeit und Nützlichkeit. Der szenariobasierte Usability-Test hat zudem gezeigt, dass die Testpersonen bzw. User die integrierten Unterstützungs-maßnahmen zur Erhöhung der Benutzerfreundlichkeit während der Suche als sehr positiv und nützlich bewerten. In der Testsuchmaschine wurde diese Unterstützung z. B. durch das Aufklappen und Präsentieren von verwandten MeSH- und ICD-10-Begriffen realisiert. Die Einführung eines Schiebereglers zur effektiven Eingrenzung des Suchraums wurde ebenfalls überwiegend positiv bewertet. Zudem wurden nach Abschicken der Suchanfrage sogenannte Verwandte Suchbegriffe aus verschiedenen medizinischen Teilbereichen angezeigt. Diese Facetten-Funktion diente der Eingrenzung bzw. Verfeinerung der Suche und wurde von den Testpersonen mehrheitlich als ein sinnvolles Hilfsangebot bewertet. Insgesamt stellt das MorphoSaurus-Projekt - mit seinem spezifischen Ansatz - ein gelungenes Beispiel für die Innovationsfähigkeit von Bibliotheken im Bereich der öffentlichen Informationsversorgung dar. Durch die mögliche Anpassung der MorphoSaurus-Technologie mittels fachspezifischer Thesauri ist zudem eine hohe Anschlussfähigkeit für Suchmaschinen-projekte anderer Inhaltsdomänen gegeben.
-
Deutsche Nationalbibliothek plant Umstieg auf RDA (2011)
0.01
0.010003153 = product of:
0.040012613 = sum of:
0.040012613 = weight(_text_:und in 1184) [ClassicSimilarity], result of:
0.040012613 = score(doc=1184,freq=34.0), product of:
0.1131508 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05101711 = queryNorm
0.35362202 = fieldWeight in 1184, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1184)
0.25 = coord(1/4)
- Content
- "Nach langjährigen Diskussionen in der Fachcommunity über das Für und Wider eines Umstiegs auf internationale Standards geht die Deutsche Nationalbibliothek nun von einem Umstieg auf den neuen Standard Resource Description and Access (RDA) ab Mitte 2013 aus. Dieser Termin orientiert sich an dem von der Library of Congress, der National Library of Medicine und der National Agricultural Library angestrebten Umstiegstermin zu Beginn des Jahres 2013. Ab diesem Zeitpunkt plant die Library of Congress, ihre Daten nur noch nach dem neuen Regelwerk zu erfassen und sie entsprechend auszuliefern. Da die Library of Congress einer der wichtigsten Lieferanten von Fremddaten in Deutschland ist, liegt es auf der Hand, dass ein Umstieg in der Deutschen Nationalbibliothek entsprechend zeitnah nachvollzogen wird. Mit diesem Plan wird ein ambitioniertes Ziel verfolgt, das zu erreichen es nun vorzubereiten gilt. Dabei muss die Bibliothek nicht von Null anfangen. Die Deutsche Nationalbibliothek und die dort angesiedelte Arbeitsstelle für Standardisierung arbeiten bereits seit Langem im Auftrag des Standardisierungsausschusses gemeinsam mit den Expertengruppen an der Entwicklung des neuen Standards mit. Angefangen mit Stellungnahmen zu ersten Entwürfen der RDA über Kommentare zum RDA-Gesamtentwurf bis hin zu Tests des RDA Toolkits, nachdem dieses im Sommer 2010 veröffentlicht wurde. Seit 2007 bearbeiten Mitarbeiterinnen und Mitarbeiter der Deutschen Nationalbibliothek im Rahmen eines Projektes verschiedene - zunächst nur - vorbereitende Arbeitspakete, die zum Teil als Grundlage für eine Entscheidung des Standardisierungsausschusses über einen Einsatz des neuen Regelwerkes im deutschsprachigen Raum angesehen wurden bzw. nach einer entsprechenden Entscheidung sofort zur Verfügung stehen sollten. Dazu gehören beispielsweise die Erarbeitung einer deutschen Übersetzung und ein Schulungskonzept bzw. die Erarbeitung von Schulungsunterlagen, mit deren Hilfe flächendeckende Schulungen angeboten werden können. Auch wurden im Rahmen des Projekts erste Überlegungen zu einem künftigen Datenmodell angestellt und die Vorgehensweise bei der Erstellung deutscher Anwendungsregeln beraten. Bei allen Aktivitäten müssen dabei immer mehrere Ebenen bedacht werden: die internationale, die deutschsprachige und die lokale. Um diese Ebenen sinnvoll miteinander zu verzahnen und die unterschiedlichsten Aspekte berücksichtigen zu können, arbeiten Mitarbeiterinnen und Mitarbeiter der Deutschen Nationalbibliothek in den unterschiedlichsten Gremien mit bzw. stehen in engem Kontakt zu diesen. Eine ganz neue Facette in diesem Gefüge ist die European RDA Interest Group, EURIG, die unter Beteiligung der Deutschen Nationalbibliothek gegründet wurde und sich vor wenigen Wochen offiziell konstituiert hat.
Mit Bekanntgabe ihrer Entscheidung möchte die Deutsche Nationalbibliothek dazu beitragen, dass das bislang bewegliche Ziel eines Umstiegs auf RDA fassbar wird. Als verlässliche Partnerin der Bibliotheken und Verbünde im deutschsprachigen Raum geht die Deutsche Nationalbibliothek einen Schritt voran und erbringt weitere Vorleistungen, von denen die gesamte Community profitieren kann. Ein weiterer wichtiger Schritt ist es, dass der Standardisierungsausschuss sich in seiner Sitzung am 5. Oktober 2011 grundsätzlich für die Einführung des neuen Erschließungsstandards Resource Description and Access im deutschsprachigen Raum ausgesprochen hat und die erforderlichen Entscheidungsverfahren zur Einführung in den beteiligten Institutionen einleiten wird, mit dem Ziel, in der nächsten Sitzung des Standardisierungsausschusses am 31. Mai 2012 zu einer endgültigen Entscheidung zu kommen. Gleichzeitig hat der Standardisierungsausschuss allen Beteiligten für ihre bisherigen Arbeiten zur Vorbereitung des Umstiegs auf die RDA im deutschsprachigen Raum gedankt und die Arbeitsstelle für Standardisierung darum gebeten, in Zusammenarbeit mit den Expertengruppen und weiteren relevanten Gremien, die Umsetzung des Umstiegs zügig voranzubringen. Dazu gehören neben Überlegungen zu künftigen Datenmodellen u.a. die Erarbeitung von Anwendungsregeln, die Veröffentlichung der deutschen Übersetzung des Regelwerkstextes sowie die Durchführung von Schulungsmaßnahmen. Die Arbeitsstelle für Standardisierung nimmt diesen Auftrag an und wird alle notwendigen Schritte einleiten, damit der Übergang zu dem neuen Standard sowohl in der Deutschen Nationalbibliothek als auch in den Bibliotheken des deutschsprachigen Raums so unkompliziert wie möglich vonstatten gehen kann."