-
Bärnreuther, K.: Informationskompetenz-Vermittlung für Schulklassen mit Wikipedia und dem Framework Informationskompetenz in der Hochschulbildung (2021)
0.01
0.013306635 = product of:
0.05322654 = sum of:
0.05322654 = weight(_text_:und in 299) [ClassicSimilarity], result of:
0.05322654 = score(doc=299,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.4407773 = fieldWeight in 299, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=299)
0.25 = coord(1/4)
- Abstract
- Das Framework Informationskompetenz in der Hochschulbildung bietet sich als bibliotheksdidaktischer Rahmen auch schon für Kursangebote für Schulklassen an: obwohl es für die Angebote an Hochschulen und Universitäten konzipiert wurde, bereiten die Kollegstufen deutscher Gymnasien auf wissenschaftliche Karrieren vor; bibliothekarische Angebote für angehende Studierende können und sollten sich daher ebenfalls schon nach dem Framework richten. Informationskompetenz praxis- und lebensnah an Schüler*innen zu vermitteln, kann mit dem Framework als didaktischem Rahmen und praktisch am Beispiel der bei Lernenden und Lehrenden gleichermaßen beliebten und gleichzeitig viel gescholtenen Online-Enzyklopädie Wikipedia gelingen. Nicht nur wegen der zahlreichen Corona-bedingten Bibliotheksschließungen sollten angehende Abiturient*innen im Bereich der Online-Recherche zu reflektierten und kritischen Nutzer*innen ausgebildet werden. Im Rahmen des Frameworks kann praktisch am Beispiel Wikipedia Informationskompetenz vermittelt werden, die die Teilnehmenden unserer Kurse von der Wikipedia ausgehend auf die allgemeine Online-Recherche und auch auf alle anderen Bereiche des wissenschaftlichen Arbeitens übertragen können.
-
Junger, U.; Scholze, F.: Neue Wege und Qualitäten : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021)
0.01
0.013306635 = product of:
0.05322654 = sum of:
0.05322654 = weight(_text_:und in 365) [ClassicSimilarity], result of:
0.05322654 = score(doc=365,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.4407773 = fieldWeight in 365, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=365)
0.25 = coord(1/4)
- Abstract
- Es kommt nicht oft vor, dass ein bibliothekfachliches Thema Gegenstand eines ganzseitigen Artikels im Feuilleton einer der wichtigsten überregionalen Zeitungen in Deutschland wird. Am 31. Juli 2017 war dies der Fall: Die Frankfurter Allgemeine Zeitung veröffentlichte einen Artikel des Generaldirektors der Bayerischen Staatsbibliothek, Klaus Ceynowa, in dem dieser sich kritisch mit einem Konzept zur inhaltlichen Erschließung auseinandersetzte, das die Deutsche Nationalbibliothek (DNB) zuvor für die deutschsprachige bibliothekarische Community veröffentlicht hatte. Hatten bereits zuvor die Bemühungen der DNB, Verfahren zur maschinellen Dokumenterschließung zu entwickeln und einzusetzen, zu kontroversen Reaktionen im Bibliothekswesen geführt, so sorgte dieser Artikel noch einmal in besonderer Weise für Aufmerksamkeit und Diskussionen zu einem Thema, das vielen als eher verstaubt und unattraktiv galt: die Inhaltserschließung. Der folgende Beitrag zeichnet einige Grundlinien der Erschließungspolitik der DNB seit 2010 nach und beschreibt, welche Instrumente und Verfahren bei der Inhaltserschließung zum Einsatz kommen, welche konzeptionellen Entscheidungen ihr zugrunde liegen, wie versucht wird, Qualität zu erfassen und welche Entwicklungs- und Handlungsfelder für die Zukunft gesehen werden.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Auer, S.; Sens, I.; Stocker, M.: Erschließung wissenschaftlicher Literatur mit dem Open Research Knowledge Graph (2020)
0.01
0.013306635 = product of:
0.05322654 = sum of:
0.05322654 = weight(_text_:und in 551) [ClassicSimilarity], result of:
0.05322654 = score(doc=551,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.4407773 = fieldWeight in 551, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=551)
0.25 = coord(1/4)
- Abstract
- Die Weitergabe von Wissen hat sich seit vielen hundert Jahren nicht grundlegend verändert: Sie erfolgt in der Regel dokumentenbasiert - früher als klassischer Aufsatz auf Papier gedruckt, heute als PDF. Bei jährlich rund 2,5 Millionen neuen Forschungsbeiträgen ertrinken die Forschenden in einer Flut pseudodigitalisierter PDF-Publikationen. Die Folge: Die Forschung wird ernsthaft geschwächt. Denn viele Forschungsergebnisse können durch andere nicht reproduziert werden, es gibt mehr und mehr Redundanzen und das Meer von Publikationen ist unübersichtlich. Deshalb denkt die TIB - Leibniz-Informationszentrum Technik und Naturwissenschaften Wissenskommunikation neu: Statt auf statische PDF-Artikel setzt die TIB auf Wissensgraphen. Sie arbeitet daran, Wissen unterschiedlichster Form - Texte, Bilder, Grafiken, Audio- und Video-Dateien, 3D-Modelle und vieles mehr - intuitiv mithilfe dynamischer Wissensgraphen zu vernetzen. Der Wissensgraph soll verschiedene Forschungsideen, -ansätze, -methoden und -ergebnisse maschinenlesbar darstellen, sodass völlig neue Zusammenhänge von Wissen zutage treten und zur Lösung globaler Probleme beitragen könnten. Die großen gesellschaftlichen Herausforderungen verlangen Interdisziplinarität und das Zusammenfügen von Erkenntnis-Einzelteilen. Mit dem Wissensgraphen kann das gelingen und der Fluss wissenschaftlicher Erkenntnisse revolutioniert werden.
-
Wiesenmüller, H.: Formale Erschließung (2023)
0.01
0.013306635 = product of:
0.05322654 = sum of:
0.05322654 = weight(_text_:und in 784) [ClassicSimilarity], result of:
0.05322654 = score(doc=784,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.4407773 = fieldWeight in 784, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=784)
0.25 = coord(1/4)
- Abstract
- Bei der formalen Erschließung bzw. Formalerschließung, die auch als formale Analyse, formale Erfassung, Formalbeschreibung oder (Formal-)Katalogisierung bezeichnet wird, "werden Ressourcen gemäß festgelegten Regeln nach äußerlichen, formalen Kriterien beschrieben und auffindbar gemacht". Diese Ressourcen können alle Arten von physischen und digitalen Objekten sein, die z. B. in Bibliotheken, Archiven, Museen oder Dokumentationsstellen gesammelt oder verzeichnet werden. Formale Aspekte bei einem gedruckten Buch sind u. a. der*die Autor*in, der Titel, der Verlag, das Erscheinungsdatum, der Umfang und die ISBN. Bei einer Skulptur sind es u. a. der*die Künstler*in, das Entstehungsdatum, Werkstoff und Technik, die Maße und die Besitzgeschichte. Bei einem im Internet zur Verfügung gestellten digitalen Foto sind es u. a. der*die Fotograf*in, der Zeitpunkt der Aufnahme und die Koordinaten des Aufnahmeorts, technische Daten zur Aufnahme (z. B. Belichtungszeit), der Dateiname, das Dateiformat und die Dateigröße sowie die URL und ggf. ein Persistent Identifier (z. B. DOI oder URN).
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Praxishandbuch Wissenschaftliche Bibliothekar:innen : Wandel von Handlungsfeldern, Rollen und Perspektiven im Kontext der digitalen Transformation (2024)
0.01
0.013306635 = product of:
0.05322654 = sum of:
0.05322654 = weight(_text_:und in 1185) [ClassicSimilarity], result of:
0.05322654 = score(doc=1185,freq=18.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.4407773 = fieldWeight in 1185, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=1185)
0.25 = coord(1/4)
- Abstract
- Die digitale Transformation stellt wissenschaftliche Bibliothekar:innen vor neue Herausforderungen, die nicht nur den praktischen Umgang mit neuen Technologien betreffen, sondern die eine neue Art des Handelns, Kommunizierens, Kooperierens sowie ein neues professionelles Rollenverständnis hervorgebracht haben. Dies entspricht längst nicht mehr dem klassischen Selbstverständnis des "höheren Dienstes", in dessen Mittelpunkt eine auf den Bestand fokussierte Fachreferatsarbeit stand und dessen Aufgabengebiete durch eine streng hierarchische Organisationsstruktur der Bibliothek geprägt und begrenzt waren. Die Digitalisierung hat diese Ordnung in Bewegung gebracht und zahlreiche neue Aufgabenbereiche sowie Service- und Funktionsstellen entstehen lassen. Heute arbeiten Bibliothekar:innen mit den Wissenschaftler:innen in Forschung und Lehre zusammen, unterstützen Forschende im Umgang mit Forschungsdaten, entwickeln digitale Lernangebote für heterogene Zielgruppen und übernehmen Aufgaben in der Datenprozessierung. Das Handbuch richtet sich an die Aus-, Fort- und Weiterbildung, soll aber auch eine Standortbestimmung bibliothekarischen Handelns in der digital geprägten Informationswelt bieten.
- Content
- Darin: Henriette Rösch: Bestand entwickeln und auffindbar machen. Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110790375/html?lang=de [https://doi.org/10.1515/9783110790375].
-
Jooss, B.; Mattern, S.: ¬Die Bestände des documenta archivs und ihre Erschließung (2020)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 5925) [ClassicSimilarity], result of:
0.05289696 = score(doc=5925,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 5925, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=5925)
0.25 = coord(1/4)
- Abstract
- Das documenta archiv zählt in der Landschaft der Kunstarchive sicherlich zu den außergewöhnlichsten in Deutschland. Zum einen ist es aufgrund seines inhaltlichen Schwerpunkts sehr international positioniert: Kein anderes Kunstarchiv in Deutschland hat aufgrund der Bestände des international agierenden Kuratoren- und Kuratorinnen-Teams und der aus allen Kontinenten eingeladenen Künstlerinnen und Künstler eine solche Reichweite an Nachfragen, die in Kassel aus der ganzen Welt eintreffen. Zum anderen ist es - mit dem Bauhaus-Archiv - eines der beiden ältesten Kunstarchive Deutschlands.
- Source
- Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.77-85
-
Voß, J.: Verbundzentrale des GBV übernimmt BARTOC (2020)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 25) [ClassicSimilarity], result of:
0.05289696 = score(doc=25,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 25, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=25)
0.25 = coord(1/4)
- Abstract
- Die VZG hat zum November 2020 den Betrieb und die technische Weiterentwicklung übernommen. BARTOC enthält Informationen zu über mehr als 5.000 Wissensorganisationssysteme wie Klassifikationen, Thesauri, Ontologien und Normdateien. Die Inhalte werden durch eine internationale Gruppe von Redakteuren betreut und stehen in verschiedener Form frei zur Verfügung. Die Adresse https://bartoc.org/ und alle BARTOC-URLs bleiben bestehen. Das Redaktionsteam freut sich über Hinweise auf Ergänzungen und Korrekturen.
-
Schleim, S.: Reduktionismus und die Erklärung von Alltagsphänomenen (2021)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 74) [ClassicSimilarity], result of:
0.05289696 = score(doc=74,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 74, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=74)
0.25 = coord(1/4)
- Abstract
- Teil 2 der Serie über Bewusstsein, Philosophie, Religion und Naturwissenschaft.
- Content
- Vorgänger als: 'Wissenschaft und Religion: Konflikt oder Kooperation?' Unter: https://www.heise.de/tp/features/Wissenschaft-und-Religion-Konflikt-oder-Kooperation-6004714.html?seite=all. Vgl. auch: https://heise.de/-6009962.
- Source
- https://www.heise.de/tp/features/Reduktionismus-und-die-Erklaerung-von-Alltagsphaenomenen-6009962.html?wt_mc=nl.red.telepolis.telepolis-nl.2021-04-16.link.link
-
Herb, U.; Geith, U.: Kriterien der qualitativen Bewertung wissenschaftlicher Publikationen : Befunde aus dem Projekt visOA (2020)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 108) [ClassicSimilarity], result of:
0.05289696 = score(doc=108,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 108, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=108)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschreibt a) die Ergebnisse einer Literaturstudie zur qualitativen Wahrnehmung wissenschaftlicher Publikationen, b) die Konstruktion eines daraus abgeleiteten Kriterienkatalogs zur Wahrnehmung der Qualität wissenschaftlicher Publikationen sowie c) der Überprüfung dieses Katalogs in qualitativen Interviews mit Wissenschaflterinnen und Wissenschaftlern aus dem Fachspektrum Chemie, Physik, Biologie, Materialwissenschaft und Engineering. Es zeigte sich, dass die Wahrnehmung von Qualität auf äußerlichen und von außen herangetragenen Faktoren, inhaltlichen / semantischen Faktoren und sprachlichen, syntaktischen sowie strukturellen Faktoren beruht.
- Source
- Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.77-85
-
Franz, S.; Lopatka, T.; Kunze, G.; Meyn, N.; Strupler, N.: Un/Doing Classification : Bibliothekarische Klassifikationssysteme zwischen Universalitätsanspruch und reduktionistischer Wissensorganisation (2022)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 675) [ClassicSimilarity], result of:
0.05289696 = score(doc=675,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 675, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=675)
0.25 = coord(1/4)
- Abstract
- Der multiperspektivische Beitrag analysiert mit einem intersektionalen und qualitativen Ansatz diskriminierende Begriffe, Auslassungen und implizit abwertende Strukturen bibliothekarischer Klassifikationen des Globalen Nordens. Am Beispiel der Regensburger Verbundklassifikation (RVK) werden rassistische und sexistische Schnitt- sowie Leerstellen in der Repräsentation queerer Lebens-, Liebes- und Lustentwürfe aufgezeigt. Mögliche Lösungen unter Einbeziehung der Communitys runden den Beitrag ab.
-
Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 752) [ClassicSimilarity], result of:
0.05289696 = score(doc=752,freq=40.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 752, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=752)
0.25 = coord(1/4)
- Abstract
- Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
- Classification
- MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
- Content
- Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
- RVK
- MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
-
Caspar, J.: Datenschutz und Informationsfreiheit (2023)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 823) [ClassicSimilarity], result of:
0.05289696 = score(doc=823,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 823, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=823)
0.25 = coord(1/4)
- Abstract
- Daten sind der Treibstoff der Informationsgesellschaft. Sie sind zentrale Steuerungsressourcen für Wirtschaft und Verwaltung und treiben die Algorithmen an, die die digitale Welt lenken. Darüber hinaus ist der Umgang mit Daten in der öffentlichen Verwaltung entscheidend für die demokratische Willensbildung. Nicht nur in Zeiten von Meinungsmanipulationen und Falschmeldung ist das Recht auf Zugang zu öffentlichen Informationen eine Säule des digitalen Rechtsstaats.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Was ist GPT-3 und spricht das Modell Deutsch? (2022)
0.01
0.01322424 = product of:
0.05289696 = sum of:
0.05289696 = weight(_text_:und in 868) [ClassicSimilarity], result of:
0.05289696 = score(doc=868,freq=10.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.438048 = fieldWeight in 868, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0625 = fieldNorm(doc=868)
0.25 = coord(1/4)
- Abstract
- GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen. GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
- Source
- https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
-
Graf, K.: Großer Suchmaschinentest 2021 : Alternativen zu Google? (2021)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
0.05121726 = score(doc=2443,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 2443, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=2443)
0.25 = coord(1/4)
- Abstract
- Weg von Google: Die besten Suchmaschinen-Alternativen, lautet der Titel eines Artikels im Standard. Und wieder ist meine Antwort, dass es dumm und töricht wäre, für wissenschaftliche Zwecke auf eine Google-Direktabfrage zu verzichten. Insbesondere die Einbindung von Ergebnissen aus Google Books, zu dem man direkt wechseln kann, und Google Scholar, macht die Google Websuche unverzichtbar.
-
Madisch, I.; Blumenthal, U.: Wie das Coronavirus die Wissenschaftswelt dynamisiert : [12.05.2020]. (2020)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 5848) [ClassicSimilarity], result of:
0.05121726 = score(doc=5848,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 5848, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=5848)
0.25 = coord(1/4)
- Abstract
- Die Wissenschaft hat sich im Zuge der Forschung zur Lungenkrankheit COVID-19 rasant verändert, konstatiert Ijad Madisch, Virologe und Gründer von ResearchGate, im Dlf. Hauptziel sei es, Informationen "so kurz und knackig und so schnell wie möglich in die Wissenschaftswelt tragen" - ohne Qualitätsverlust.
-
Bischoff, M.: KI lernt die Sprache der Mathematik (2020)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 5904) [ClassicSimilarity], result of:
0.05121726 = score(doc=5904,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 5904, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=5904)
0.25 = coord(1/4)
- Abstract
- Bisher konnten neuronale Netze bloß einfache Ausdrücke addieren und multiplizieren. Nun haben Informatiker einen selbstlernenden Algorithmus vorgestellt, der Differenzialgleichungen löst und Stammfunktionen berechnet - und dabei alle bisherigen Methoden übertrifft.
-
Herb, U.: ¬Das wissenschaftliche Publikations- und Reputationssystem ist gehackt (2020)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 5958) [ClassicSimilarity], result of:
0.05121726 = score(doc=5958,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 5958, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=5958)
0.25 = coord(1/4)
- Abstract
- Wissenschaftsjournalist Leonid Schneider über Paper Mills, bei denen sich gefälschte wissenschaftliche Papers bestellen und in Journalen veröffentlichen lassen.
- Source
- https://www.heise.de/tp/features/Das-wissenschaftliche-Publikations-und-Reputationssystem-ist-gehackt-4701388.html?view=print
-
Zimmerli, W.C.: ¬Die künstliche Intelligenz übertrifft irgendwann die menschliche und übernimmt die Macht : warum dies ein Mythos ist und wie er sich auswirkt (2021)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 87) [ClassicSimilarity], result of:
0.05121726 = score(doc=87,freq=6.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 87, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.078125 = fieldNorm(doc=87)
0.25 = coord(1/4)
- Abstract
- Die menschliche Welt ist ohne Algorithmen nicht mehr zu denken. Zugleich überhöht der Mensch jedoch seine eigenen Erfindungen - und verzweifelt darob fast.
-
Çetta, D.; Griesbaum, J.; Montanari, E.G.; Mandl, T.: Selbstbestimmt durch Informationskompetenz (2021)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 116) [ClassicSimilarity], result of:
0.05121726 = score(doc=116,freq=24.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 116, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=116)
0.25 = coord(1/4)
- Abstract
- Das Internet verändert die Informationswelt und Gesellschaft. Es bietet zum einen umfassenden Zugriff auf Informationen, zugleich stellt es einen komplexen, interessengesteuerten und teilweise intransparenten Informationsraum dar. Die Menge an verfügbaren Informationen nimmt stetig zu, was auch daran liegt, dass Informationen von jeder Person mühelos ins Netz gestellt werden können. So gelangen auch ungeprüfte Informationen in Umlauf, was wiederum die Bewertung und Bestimmung der Glaubwürdigkeit von Informationen erschwert. Das Internet macht es einfach, Fake News und Desinformation zu verbreiten. Im privaten Bereich haben Nutzer_innen es mit Phishing- oder Spammails, falschen Online-Shops oder irreführenden Gesundheitsinformationen zu tun. Im aktuellen Corona-Kontext kursieren diverse Falschinformationen zu gesundheitsbezogenen Themen. Kurz: Das Internet ist eine fordernde Informationsumwelt. Eine Informationsumwelt, die Nutzer_innen auch überfordern kann. Verfügt man nicht über hinreichende Informationskompetenz so läuft man Gefahr sich manipulieren zu lassen und sich dabei noch für informiert zu halten.
In Anbetracht einer komplexer werdenden Informationsumwelt unterstützt Informationskompetenz dabei, informierte Entscheidungen zu treffen. Informationskompetenz ist wichtig für private und beruflich Lebensbereiche und auch für öffentliche Diskurse elementar. Informationskompetenz schafft die Grundlage dafür, auf einer fundierten Informationsgrundlage selbstbestimmt entscheiden und sich sachlich-rational in Diskurse einbringen zu können. Informationskompetenz ist nicht schwer zu erlangen, man muss sich aber dafür entscheiden, sich informationskompetent zu verhalten. Das ist vor allem bei Themen und Entscheidungen, die auf eine fundierte Informationsgrundlage angewiesen sind wichtig.
- Content
- Dieser Artikel wurde im Rahmen des Projekts »Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung« erstellt. Das Projekt wird durch das Niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen der Ausschreibung »Zukunftsdiskurse« aus Mitteln des Niedersächsischen Vorab gefördert.
-
Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021)
0.01
0.012804315 = product of:
0.05121726 = sum of:
0.05121726 = weight(_text_:und in 128) [ClassicSimilarity], result of:
0.05121726 = score(doc=128,freq=24.0), product of:
0.12075608 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.054483794 = queryNorm
0.42413816 = fieldWeight in 128, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0390625 = fieldNorm(doc=128)
0.25 = coord(1/4)
- Abstract
- Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.