-
Semar, W.: Informations- und Wissensmanagement (2023)
0.01
0.009448001 = product of:
0.037792005 = sum of:
0.037792005 = weight(_text_:und in 817) [ClassicSimilarity], result of:
0.037792005 = score(doc=817,freq=14.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.32394084 = fieldWeight in 817, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=817)
0.25 = coord(1/4)
- Abstract
- In der Literatur wird Informations- und Wissensmanagement oft zusammen und in dieser Reihenfolge betitelt. In der Tat handelt es sich aber um zwei eigenständige Themenbereiche, die sich ergänzen. Ausgangspunkt muss jedoch zunächst das Wissen von Menschen sein, damit man ihnen anschließend die für sie relevante Information zukommen lassen kann. Hierdurch sind bereits die Aufgaben der beiden Bereiche festgelegt. Im Wissensmanagement geht es um das gezielte Organisieren von Wissen, das in den Köpfen der Menschen vorhanden ist. Dadurch, dass Wissen in der Zwischenzeit unbestritten eine der wichtigsten Ressourcen eines Unternehmens bzw. jeglicher Formen einer Organisation ist, steht das Managen des Wissens aller Mitarbeitenden im Vordergrund. Beim Informationsmanagement geht es um das gezielte Organisieren von Information, damit die Mitarbeitenden jederzeit über das relevante Wissen verfügen, um ihre Aufgabe erfüllen zu können. Wissen ist somit etwas Internes, im Kopf der Menschen, während Information von außen kommt, also etwas Externes ist. Die Kulturaspekte und die Fokussierung auf die Mitarbeitenden als Wissensträger stehen im Vordergrund des Wissensmanagements, während beim Informationsmanagement die Informationsversorgung und die dafür notwendige technische Infrastruktur im Vordergrund stehen. Gemäß diesem Konzept gehen wir im Folgenden zunächst auf das Wissensmanagement und anschließend auf das Informationsmanagement ein.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023)
0.01
0.009034018 = product of:
0.036136072 = sum of:
0.036136072 = weight(_text_:und in 935) [ClassicSimilarity], result of:
0.036136072 = score(doc=935,freq=20.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.3097467 = fieldWeight in 935, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=935)
0.25 = coord(1/4)
- Abstract
- Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
-
Scherschel, F.A.: Corona-Warn-App: Quellcode-Analyse eines beispiellosen Open-Source-Projektes : [04.06.2020]. (2020)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 5894) [ClassicSimilarity], result of:
0.0349886 = score(doc=5894,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 5894, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=5894)
0.25 = coord(1/4)
- Content
- "Vorläufiges Fazit Die SAP-Entwickler haben mit Unterstützung der Telekom und unter Bezugnahme auf Verbesserungsvorschläge unzähliger unabhängiger Helfer eine beeindruckende Leistung vorgelegt. Nicht nur haben sie es geschafft, eine komplizierte App und deren Server-Infrastruktur für zwei Betriebssysteme im Rekordtempo bereitzustellen, das Ganze passiert auch noch unter Beachtung gängiger Best Practices der App-Entwicklung und für die Veröffentlichung von Open-Source-Code. Bei dem Corona-Warn-App-Projekt handelt es sich um das erste Mal in der Geschichte der Bundesrepublik, dass so etwas im Auftrag der Regierung so schnell und in solchem Ausmaß gelingt. Wenn Sicherheitsforscher, Datenschutz-Experten und unabhängige Entwickler bis zur Veröffentlichung der Apps keine gravierenden Probleme mit dem Quellcode finden, gibt es erst mal keinen Grund, dass irgendjemand der deutschen Umsetzung des COVID-19-Contact-Tracing-Konzeptes gegenüber Misstrauen hegen muss. Ob die Apps trotzdem noch rechtzeitig kommen und ob Bluetooth-Tracing überhaupt dafür geeignet ist, die Verbreitung von SARS-CoV-2 einzudämmen oder gar zu stoppen, ist hingegen völlig unsicher. ..."
-
Shanahan, M.: ¬ Die technologische Singularität (2021)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 196) [ClassicSimilarity], result of:
0.0349886 = score(doc=196,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 196, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=196)
0.25 = coord(1/4)
- Abstract
- Der Kognitionswissenschaftler Murray Shanahan befasst sich in seinem neuen Buch mit künstlicher Intelligenz und ihrer Bewusstwerdung. >Technologische Singularität< bezeichnet den Zeitpunkt, an dem von künstlicher Intelligenz gesteuerte Maschinen sich fortlaufend selbst so zu verbessern imstande sind, dass sie sich der Beherrschung durch Menschenhand entziehen. Der Robotikspezialist Murray Shanahan beschreibt die unterschiedlichen derzeit weltweit vorangetriebenen technologischen Entwicklungen, die zu einem solchen Ereignis führen können. Er führt auf verständliche Weise in die komplexen Forschungen ein, die unsere nächste Zukunft verändern werden. Aus der Perspektive eines Praktikers beschäftigt er sich mit der Frage, ob künstliche Intelligenz über Bewusstsein verfügen kann, und entwickelt moralische Ansätze zu einem verantwortlichen Umgang mit dieser zumeist als Katastrophenszenario gezeichneten Zukunftsfantasie.
- BK
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
- Classification
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
- Content
- Zusammenfassung: Intro -- Titel -- Inhaltsverzeichnis -- Vorwort -- Einleitung -- 1. Wege zur künstlichen Intelligenz -- 2. Gehirnemulation -- 3. Die technische Realisation künstlicher Intelligenz -- 4. Superintelligenz -- 5. KI und Bewusstsein -- 6. KI und ihre Folgen -- 7. Himmel oder Hölle -- Glossar -- Anmerkungen -- Literatur -- Register -- Impressum.
-
Brandom, R.B.: Im Geiste des Vertrauens : eine Lektüre der »Phänomenologie des Geistes« (2021)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 488) [ClassicSimilarity], result of:
0.0349886 = score(doc=488,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 488, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=488)
0.25 = coord(1/4)
- Abstract
- Vierzig Jahre lang hat der Philosoph Robert Brandom an seiner lang erwarteten und bahnbrechenden Neuinterpretation von Hegels Phänomenologie des Geistes gearbeitet. Indem er analytische, kontinentale und historische Traditionen verbindet, zeigt er, welche Herausforderung Hegels philosophisches Denken selbst heute noch darstellt. Im Geiste des Vertrauens handelt von der massiven historischen Veränderung im Leben der Menschheit, welche die Moderne darstellt. In der Antike wurden Urteile darüber, was sein sollte, als objektive Tatsachen angesehen, während die moderne Welt sie als durch subjektive Einstellungen bestimmt betrachtet. Hegel vertritt eine Sichtweise, die beides miteinander verbindet, Brandom bezeichnet sie als »objektiven Idealismus«: Es gibt eine objektive Realität, aber wir können ihr keinen Sinn abgewinnen, ohne zuerst zu verstehen, wie wir über sie denken. Wir werden erst dann zu Akteuren, wenn wir von anderen Akteuren als solche wahrgenommen werden. Das bedeutet, dass Verpflichtung, Verantwortung und Autorität durch soziale Praktiken der gegenseitigen Anerkennung erzeugt werden. Wenn unsere selbstbewussten anerkennenden Haltungen die radikale Form von Großmut und Vertrauen annehmen, so Brandom, dann können wir die Moderne überwinden und in ein neues Zeitalter des Geistes eintreten.
- Issue
- Aus dem Amerikanischen von Sebastian Koth und Aaron Shoichet.
-
Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 539) [ClassicSimilarity], result of:
0.0349886 = score(doc=539,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 539, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=539)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identifikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Datensicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
-
Whittaker, M.; Leisegang, D.; Köver, C.: Künstliche Intelligenz ist vor allem ein Marketinghype : [Interview] (2022)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 739) [ClassicSimilarity], result of:
0.0349886 = score(doc=739,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 739, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=739)
0.25 = coord(1/4)
- Abstract
- Sie arbeitete für Google, forschte zu Künstlicher Intelligenz und steht nun an der Spitze des Messengers Signal. Meredith Whittaker gilt als eine der schärfsten Kritikerinnen von Big Tech. Wir sprechen mit ihr über smarte Kaffeemaschinen, Verschlüsselung für alle und die fatalen Folgen fehlender Regulierung. Als Meredith Whittaker Anfang September zur neuen Präsidentin der Signal Foundation berufen wurde, horchte die Tech-Branche auf. Denn die ehemalige Google-Managerin gilt als einer ihrer schärfsten Kritiker:innen. In den vergangenen Jahren hat Whittaker vor allem gegen Überwachung und Rüstungsdeals gekämpft - erst bei Google, wo sie seit 2006 dreizehn Jahre lange arbeitete, später an dem von ihr mitgegründeten Forschungsinstitut zu den Auswirkungen Künstlicher Intelligenz. Berühmt wurde sie 2018 als Organisatorin der Mitarbeiter:innenproteste, die sich daran entzündeten, wie die Google-Führung mit Fällen sexualisierter Gewalt in dem Konzern umging. Nachdem Whittaker 2019 bei Google "gegangen wurde", wie sie sagt, lehrte sie als Professorin an der New York University und beriet die US-amerikanische Federal Trade Commission. Anfang dieses Jahres hatte Signal-Gründer Moxie Marlinspike überraschend seinen Rückzug bekanntgegeben. Daraufhin wurde der Posten der Stiftungspräsidentin eingerichtet. In dieser Funktion verantwortet Whittaker nun die Gesamtstrategie der gemeinnützigen Stiftung und kümmert sich dabei vor allem um eine stabile Finanzierung des Messengers. Und Whittaker will Signal als Alternative zum Marktführer WhatsApp stärken.
-
Garrel, J. von; Mayer, J.; Mühlfeld, M.: Künstliche Intelligenz im Studium : eine quantitative Befragung von Studierenden zur Nutzung von ChatGPT & Co. (2023)
0.01
0.00874715 = product of:
0.0349886 = sum of:
0.0349886 = weight(_text_:und in 1006) [ClassicSimilarity], result of:
0.0349886 = score(doc=1006,freq=12.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29991096 = fieldWeight in 1006, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=1006)
0.25 = coord(1/4)
- Abstract
- KI-basierte Tools wie ChatGPT bzw. GPT-4 verändern derzeit die Hochschullandschaft und vielerorts wird bereits über die Konsequenzen für die zukünftigen Lehr- und Prüfungsformen diskutiert. Um hier eine empirische Grundlage zu schaffen, ist eine deutschlandweite Befragung von Studierenden durchgeführt worden, in welcher das Nutzungsverhalten im Umgang mit KI-basierten Tools im Rahmen des Studiums und Alltags erfasst wurde. Hierbei wurden unter anderem diverse Funktionen der KI-basierten Tools identifiziert, die für die Studierenden als besonders wichtig eingeschätzt wurden. Das Ziel der quantitativen Befragung lag somit in der Erfassung davon, wie KI-Tools genutzt werden und welche Faktoren für die Nutzung maßgeblich sind. Insgesamt haben sich deutschlandweit über 6300 Studierende an der anonymen Befragung beteiligt. Die Ergebnisse dieser quantitativen Analyse verdeutlichen, dass fast zwei Drittel der befragten Studierenden KI-basierte Tools im Rahmen des Studiums nutzen bzw. genutzt haben. Explizit nennen in diesem Kontext fast die Hälfte der befragten Studierenden ChatGPT bzw. GPT-4 als genutztes Tool. Am häufigsten nutzen Studierende der Ingenieurwissenschaften sowie Mathematik und Naturwissenschaften KI-basierte Tools. Eine differenzierte Betrachtung des Nutzungsverhaltens verdeutlicht, dass die Studierenden KI-basierte Tools vielfältig einsetzen. Die Klärung von Verständnisfragen und Erläuterung fachspezifischer Konzepte zählen in diesem Kontext zu den relevantesten Nutzungsgründen.
-
Verch, U.: Alles was Recht ist : das Buchpreisbindungsgesetz (2022)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 4843) [ClassicSimilarity], result of:
0.034636945 = score(doc=4843,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 4843, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=4843)
0.25 = coord(1/4)
- Abstract
- Im Gegensatz zu Großbritannien, der Schweiz und weiteren europäischen Ländern unterliegen Bücher in Deutschland einer Preisbindung, die mit einer langen Tradition verbunden ist. Sie betrifft nicht nur gedruckte Bücher, sondern seit der Gesetzesnovelle von 2016 auch E-Books sowie andere Mediengattungen. Rechtliche Grundlage ist das Buchpreisbindungsgesetz, das im Beitrag näher vorgestellt wird. Der Text gibt einen Überblick über die wichtigsten Regelungen zur Buchpreisbindung, die für angehende Bibliothekar*innen und Buchexpert*innen in ihrem späteren Berufsleben von Relevanz sind. Auch wichtige Gerichtsurteile und aktuelle Entwicklungen wie die Debatte um das Gutachten der Monopolkommission werden dabei in den Blick genommen.
-
Lauck, D.: ¬Das müssen Sie über die Warn-App wissen (2020)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 5888) [ClassicSimilarity], result of:
0.034636945 = score(doc=5888,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 5888, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=5888)
0.25 = coord(1/4)
- Content
- ... "Jedes Mobiltelefon mit installierter und aktivierter App soll sich über Bluetooth automatisch mit Geräten in seiner Nähe verbinden. Dazu soll über die Signalstärke die Entfernung zwischen zwei Smartphones ermittelt werden, und zugleich sollen die Handys bei einer engen Begegnung per Bluetooth anonyme ID-Schlüssel, sogenannte Kurzzeit-Identifikationsnummern, austauschen. Wird ein Nutzer positiv auf Covid-19 getestet und dieser Status in der App erfasst, werden die anderen betroffenen Anwender darüber informiert, dass sie sich in der Vergangenheit in der Nähe einer infizierten Person aufgehalten haben. Für diese Nutzer wird zugleich eine persönliche "Risikostufe für eine Infektion" mitgeteilt." ...
-
Lotter, W.: Zusammenhänge : wie wir lernen, die Welt wieder zu verstehen (2020)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 41) [ClassicSimilarity], result of:
0.034636945 = score(doc=41,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 41, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=41)
0.25 = coord(1/4)
- Abstract
- In einer immer komplexer werdenden Welt reden wir zwar viel über die Wissensgesellschaft, aber was mit den Netzwerken der Technik, der Ökonomie, der Kultur oder einer zeitgemäßen Bildung wirklich gemeint ist, durchschaut keiner so richtig. Es fehlt uns nicht nur an Durchblick, wir trauen ihn uns auch kaum noch zu. Wolf Lotter ermutigt zu einem neuen Selbstbewusstsein und konsequentem Umdenken. Wir müssen uns vom blinden Glauben an Positionen verabschieden und stattdessen in eigenes Wissen investieren. Wir müssen lernen, Komplexität zu erschließen und Zusammenhänge herzustellen. Was so entsteht, sind keine intellektuellen Konstruktionen, sondern Bausteine sozialer Gemeinschaft.291 S
-
Schoenbeck, O.; Schröter, M.; Werr, N.: Framework Informationskompetenz in der Hochschulbildung (2021)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 298) [ClassicSimilarity], result of:
0.034636945 = score(doc=298,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 298, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=298)
0.25 = coord(1/4)
- Abstract
- Im Mittelpunkt dieses Beitrags steht das 2016 von der Association of College & Research Libraries (ACRL) veröffentlichte Framework for Information Literacy for Higher Education, dessen Kernideen und Entwicklung aus Vorläufern wie den 2000 von der ACRL publizierten Information Literacy Competency Standards for Higher Education heraus skizziert werden. Die Rezeptionsgeschichte dieser Standards im deutschen Sprachraum wird vor dem Hintergrund der Geschichte ihrer (partiellen) Übersetzung nachgezeichnet und hieraus das Potenzial abgeleitet, das die nun vorliegende vollständige Übersetzung des Framework ins Deutsche für eine zeitgemäße Förderung von Informationskompetenz bietet. Die vielfältigen Herausforderungen einer solchen Übersetzung werden durch Einblicke in die Übersetzungswerkstatt exemplarisch reflektiert.
- Editor
- Gemeinsame Kommission Informationskompetenz von dbv und VDB
-
Jörs, B.: Über den Grundbegriff der "Information" ist weiter zu reden und über die Existenzberechtigung der Disziplin auch : die Kapitulation der Informationswissenschaft vor dem eigenen Basisbegriff (2020)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 326) [ClassicSimilarity], result of:
0.034636945 = score(doc=326,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 326, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=326)
0.25 = coord(1/4)
- Abstract
- Die Informationswissenschaft, eine Disziplin ohne Theorie, ohne Bezugsrahmen und ohne Klärung ihres Grundbegriffes. Zahlreiche FachvertreterInnen der Informationswissenschaft bereiten erst recht das Feld für Hate Speech und Fake News vor - mit ihrem ungeklärten (Un)begriff der "Information", - mit ihrer Forderung nach "Informationskompetenz", ein Terrain, das eigentlich der Bibliothekswissenschaft zusteht, - mit ihrer Theorielosigkeit, - mit ihrer unkritischen Ablehnung einer ernsthaften Auseinandersetzung sowie - mit ihrem ungeklärten Domänenverständnis.
-
Franke-Maier, M.; Kasprzik, A.; Ledl, A.; Schürmann, H.: Editorial (2021)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 360) [ClassicSimilarity], result of:
0.034636945 = score(doc=360,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 360, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=360)
0.25 = coord(1/4)
- Abstract
- Es ist naheliegend, einen Band zur Qualität in der Inhaltserschließung damit zu beginnen, den Begriff Qualität als solchen zu reflektieren. Wenn wir Qualität gemäß der ISO-Norm 9000:2015-1 definieren als "Grad, in dem ein Satz inhärenter Merkmale eines Objekts Anforderungen erfüllt", was sind dann die Qualitätsanforderungen an die Inhaltserschließung? Auf diese Frage gibt es zweifellos keine eindeutige und allgemeingültige Antwort - zumindest war das das Ergebnis der Diskussion unter den Herausgeber:innen dieses Bandes. Dementsprechend beleuchten wir die Frage im Folgenden aus vier unterschiedlichen Perspektiven: zunächst aus einer eher idealistischen, im Berufsethos verankerten, dann aus einer rein fachlichen und schließlich aus einer praktischen Perspektive. Die vierte, die deskriptive bzw. historische, geht als eigener Aufsatz von Andreas Ledl in den Band ein.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Lepsky, K.: Automatisches Indexieren (2023)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 781) [ClassicSimilarity], result of:
0.034636945 = score(doc=781,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 781, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=781)
0.25 = coord(1/4)
- Abstract
- Unter Indexierung versteht man die Zuordnung von inhaltskennzeichnenden Ausdrücken (Indextermen, Indexaten, Erschließungsmerkmalen) zu Dokumenten. Über die zugeteilten Indexterme soll ein gezieltes Auffinden der Dokumente ermöglicht werden. Indexterme können inhaltsbeschreibende Merkmale wie Notationen, Deskriptoren, kontrollierte oder freie Schlagwörter sein; es kann sich auch um reine Stichwörter handeln, die aus dem Text des Dokuments gewonnen werden. Eine Indexierung kann intellektuell, computerunterstützt oder automatisch erfolgen. Computerunterstützte Indexierungsverfahren kombinieren die intellektuelle Indexierung mit automatischen Vorarbeiten. Bei der automatischen Indexierung werden die Indexterme automatisch aus dem Dokumenttext ermittelt und dem Dokument zugeordnet. Automatische Indexierung bedient sich für die Verarbeitung der Zeichenketten im Dokument linguistischer und statistischer Verfahren.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
0.034636945 = score(doc=1047,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 1047, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1047)
0.25 = coord(1/4)
- Abstract
- Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
- Source
- https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
-
Spannagel, C.: Hat ChatGPT eine Zukunft in der Mathematik? (2023)
0.01
0.008659236 = product of:
0.034636945 = sum of:
0.034636945 = weight(_text_:und in 1057) [ClassicSimilarity], result of:
0.034636945 = score(doc=1057,freq=6.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.2968967 = fieldWeight in 1057, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0546875 = fieldNorm(doc=1057)
0.25 = coord(1/4)
- Abstract
- Mit Sprachassistenten wie ChatGPT und Bard stehen seit kurzem Werkzeuge zur Verfügung, die natürlichsprachliche Eingaben (engl. prompts) verarbeiten und ebenso in natürlicher Sprache beantworten können. Nachdem der auf dem Large Language Model GPT-3.5 basierende KI-Sprachassistent ChatGPT im November 2022 von der Firma OpenAI veröffentlicht worden war, waren selbst KI-Expert*innen von dessen Leistungsfähigkeit überrascht. Seitdem ist die Entwicklung rasch vorangeschritten: Mitterweile ist das noch leistungsfähigere Sprachmodell GPT-4 veröffentlicht, und Google hat mit dem Sprachassistenten Bard nachgezogen. Es liegt nahe, diese Werkzeuge auch einmal hinsichtlich ihres mathematischen Potenzials zu untersuchen. Kann ChatGPT eine Rolle in der Mathematik spielen, etwa beim Lösen mathematischer Aufgaben?
-
Kusber, E.: Ständige Aktualisierung von ASB und KAB : Zehn Jahre Systematik-Kooperati-on / Bibliotheken können jederzeit anfragen (2020)
0.01
0.0085704215 = product of:
0.034281686 = sum of:
0.034281686 = weight(_text_:und in 1779) [ClassicSimilarity], result of:
0.034281686 = score(doc=1779,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29385152 = fieldWeight in 1779, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=1779)
0.25 = coord(1/4)
-
Sprenger, M.: Best-Practice-Guide für das Metadatenschema DataCite (2020)
0.01
0.0085704215 = product of:
0.034281686 = sum of:
0.034281686 = weight(_text_:und in 5597) [ClassicSimilarity], result of:
0.034281686 = score(doc=5597,freq=8.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29385152 = fieldWeight in 5597, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5597)
0.25 = coord(1/4)
- Abstract
- "Kürzlich erschien Best-Practice-Guide für das Metadatenschema DataCite aufmerksam machen, der in Zusammenarbeit einiger Münchner Institutionen in Verbindung mit dem Modellprojekt "eHumanities - interdisziplinär" entstanden ist: https://doi.org/10.5281/zenodo.3559800. Der Guide, der unter Beteiligung des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, der IT-Gruppe Geisteswissenschaften (LMU) und der Universitätsbibliothek der LMU erstellt wurde, stellt eine Empfehlung für den Einsatz von DataCite (https://schema.datacite.org/) an den beteiligten Institutionen dar. Dabei ist er so formuliert, dass er sich problemlos auf andere Institutionen oder Szenarien übertragen lässt. Die einzelnen Teile des Guides sowie Anwendungsbeispiele als XML-Dateien sind auf GitHub veröffentlicht: https://github.com/UB-LMU/DataCite_BestPracticeGuide . Das Repositorium kann und soll gerne für Feedback genutzt werden. Um die Befüllung der DataCite-Felder zu erleichtern, wurde durch die IT-Gruppe Geisteswissenschaften der bereits verfügbare DataCite-Generator aktualisiert und mit Erklärungen aus dem Best-Practice-Guide verlinkt: https://dhvlab.gwi.uni-muenchen.de/datacite-generator/ ; der Quellcode ist ebenfalls verfügbar: https://github.com/UB-LMU/datacite-metadata-generator. Weitere Informationen zum Best-Practice-Guide finden Sie in der Begleitpublikation "Standardisierung eines Standards: Warum und wie ein Best-Practice-Guide für das Metadatenschema DataCite entstand" (http://www.kit.gwi.uni-muenchen.de/?p=42800)."
-
Freistetter, F.: Vollkommen logisch (2020)
0.01
0.0085704215 = product of:
0.034281686 = sum of:
0.034281686 = weight(_text_:und in 5658) [ClassicSimilarity], result of:
0.034281686 = score(doc=5658,freq=2.0), product of:
0.11666329 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.05263717 = queryNorm
0.29385152 = fieldWeight in 5658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.09375 = fieldNorm(doc=5658)
0.25 = coord(1/4)
- Abstract
- Das Internet steckt voller Informationen. Um aber diejenigen zu finden, die einen wirklich interessieren, braucht man gute Suchmaschinen - und die richtige Mathematik.