-
Cochard, N.: ¬A data model and XML schema for BS 8723-5 (2007)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1532) [ClassicSimilarity], result of:
0.029598296 = score(doc=1532,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1532, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1532)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Fayen, E.; Hlava, M.: Crosswalks and the USA perspective (2007)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1536) [ClassicSimilarity], result of:
0.029598296 = score(doc=1536,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1536, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1536)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Tudhope, D.; Hodge, G.: Terminology registries (2007)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1539) [ClassicSimilarity], result of:
0.029598296 = score(doc=1539,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1539, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1539)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Marie, J.S.: Medical indexing in the United States (2007)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 1743) [ClassicSimilarity], result of:
0.029598296 = score(doc=1743,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.8, S.421-423
-
Gleick, J.: ¬The information : a history, a theory, a flood (2011)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 979) [ClassicSimilarity], result of:
0.029598296 = score(doc=979,freq=8.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 979, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=979)
0.25 = coord(1/4)
- BK
- 05.20 / Kommunikation und Gesellschaft
- Classification
- 05.20 / Kommunikation und Gesellschaft
- RSWK
- Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
- Subject
- Informations- und Dokumentationswissenschaft / Geschichtee (BVB)
-
Kempf, A.O.; Baum, K.: Von der Ein-Datenbank-Suche zum verteilten Suchszenario : Zum Aufbau von Crosskonkordanzen zwischen der Fachklassifikation Sozialwissenschaften und der Dewey-Dezimalklassifikation (2013)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2654) [ClassicSimilarity], result of:
0.029598296 = score(doc=2654,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2654, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2654)
0.25 = coord(1/4)
-
Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 2810) [ClassicSimilarity], result of:
0.029598296 = score(doc=2810,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 2810, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2810)
0.25 = coord(1/4)
- Content
- Trägerin des VFI-Dissertationspreises 2014: "Überzeugende gründliche linguistische und quantitative Analyse eines im Information Retrieval bisher wenig beachteten Textelementes anhand eines eigens erstellten grossen Hypertextkorpus, einschliesslich der Evaluation selbsterstellter Auflösungsregeln für die Nutzung in künftigen IR-Systemen.".
-
Neubauer, G.: Visualization of typed links in linked data (2017)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4912) [ClassicSimilarity], result of:
0.029598296 = score(doc=4912,freq=8.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4912, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4912)
0.25 = coord(1/4)
- Abstract
- Das Themengebiet der Arbeit behandelt Visualisierungen von typisierten Links in Linked Data. Die wissenschaftlichen Gebiete, die im Allgemeinen den Inhalt des Beitrags abgrenzen, sind das Semantic Web, das Web of Data und Informationsvisualisierung. Das Semantic Web, das von Tim Berners Lee 2001 erfunden wurde, stellt eine Erweiterung zum World Wide Web (Web 2.0) dar. Aktuelle Forschungen beziehen sich auf die Verknüpfbarkeit von Informationen im World Wide Web. Um es zu ermöglichen, solche Verbindungen wahrnehmen und verarbeiten zu können sind Visualisierungen die wichtigsten Anforderungen als Hauptteil der Datenverarbeitung. Im Zusammenhang mit dem Sematic Web werden Repräsentationen von zusammenhängenden Informationen anhand von Graphen gehandhabt. Der Grund des Entstehens dieser Arbeit ist in erster Linie die Beschreibung der Gestaltung von Linked Data-Visualisierungskonzepten, deren Prinzipien im Rahmen einer theoretischen Annäherung eingeführt werden. Anhand des Kontexts führt eine schrittweise Erweiterung der Informationen mit dem Ziel, praktische Richtlinien anzubieten, zur Vernetzung dieser ausgearbeiteten Gestaltungsrichtlinien. Indem die Entwürfe zweier alternativer Visualisierungen einer standardisierten Webapplikation beschrieben werden, die Linked Data als Netzwerk visualisiert, konnte ein Test durchgeführt werden, der deren Kompatibilität zum Inhalt hatte. Der praktische Teil behandelt daher die Designphase, die Resultate, und zukünftige Anforderungen des Projektes, die durch die Testung ausgearbeitet wurden.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.179-199
-
Petritsch, B.: Metadata for research data in practice (2017)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4913) [ClassicSimilarity], result of:
0.029598296 = score(doc=4913,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4913, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4913)
0.25 = coord(1/4)
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.200-207
-
RDA Toolkit (3) : Oktober 2017 (2017)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4994) [ClassicSimilarity], result of:
0.029598296 = score(doc=4994,freq=8.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4994, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4994)
0.25 = coord(1/4)
- Abstract
- Am 10. Oktober 2017 ist das neue Release des RDA Toolkits erschienen. Aufgrund des 3R-Projekts (RDA Toolkit Restruction and Redesign Project) gab es keine inhaltlichen Änderungen am Regelwerkstext. Es wurden ausschließlich Änderungen an den D-A-CH vorgenommen, die in der Änderungsdokumentation im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg> aufgelistet sind. Die Gesamtübersicht der D-A-CH nach Kapiteln finden Sie im RDA Toolkit unter dem Reiter "Ressourcen". Wir möchten daran erinnern, dass für die Anwendung von RDA im deutschsprachigen Raum jeweils der deutsche Text maßgeblich ist. Im Juni 2018 wird das RDA Toolkit einen Relaunch erfahren und mit einer neuen Oberfläche erscheinen. Dieser beinhaltet ein Redesign der Toolkit-Oberfläche und die inhaltliche Anpassung des Standards RDA an das Library Reference Model (IFLA LRM) sowie die künftige stärkere Ausrichtung auf die aktuellen technischen Möglichkeiten durch den sogenannten 4-Fold-Path. Zunächst wird im Juni 2018 die englische Originalausgabe der RDA in der neuen Form erscheinen. Alle Übersetzungen werden in einer Übergangszeit angepasst. Hierfür wird die alte Version des RDA Toolkit für ein weiteres Jahr zur Verfügung gestellt. Der Stand Oktober 2017 der deutschen Ausgabe und die D-A-CH-Anwendungsrichtlinien bleiben bis zur Anpassung eingefroren. Im geplanten Dezember-Release des RDA Toolkit wird es keine Änderungen für die deutsche Ausgabe und die D-A-CH-Anwendungsrichtlinien geben. [Inetbib vom 11.10.2017]
-
RDA Toolkit (1) (2017)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 4996) [ClassicSimilarity], result of:
0.029598296 = score(doc=4996,freq=8.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 4996, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4996)
0.25 = coord(1/4)
- Abstract
- Am 14. Februar 2017 ist das neue Release des RDA Toolkits<http://www.rdatoolkit.org/development/February2017release> erschienen. Das Release enthält im englischen Text alle Änderungen aus dem Fast-Track-Verfahren RSC/Sec/6<http://www.rda-rsc.org/sites/all/files/RSC-Sec-6.pdf>. Ebenso enthalten sind die Updates der LC-PCC PS (Library of Congress-Program for Cooperative Cataloging Policy Statements) und der MLA Best Practices. Neu aufgenommen wurden die Policy Statements der Library and Archives Canada in Kooperation mit der Bibliothèque et Archives nationales du Québec. Diese sind sowohl im Register als auch im Text über ein Icon (dunkel violett) mit den Buchstaben LAC/BAC-BAnQ ansteuerbar. Ab sofort ist es möglich sich auch die Policy Statements in einer zweisprachigen Ansicht anzeigen zu lassen, dazu wurde die Funktion Select Language und Dual View in der Symbolliste unter dem Reiter "Ressourcen" eingefügt. Im deutschen Text wurden ausschließlich Änderungen an den Anwendungsrichtlinien für den deutschsprachigen Raum (D-A-CH) eingearbeitet. Die dazugehörige Übersicht (Kurz- bzw. Langversion) finden Sie im RDA-Info-Wiki<https://wiki.dnb.de/x/1hLSBg>. Mitte April 2017 wird das nächste Release des RDA Toolkit erscheinen, eingearbeitet werden die verabschiedeten Proposals, die im November 2016 vom RDA Steering Committee (RSC) beschlossen wurden. Die Umsetzung der Änderungen in der deutschen Übersetzung aus den Fast-Track-Dokumenten RSC/Sec/4 und RSC/Sec/5 und RSC/Sec/6 sind für den August 2017 geplant.
-
Aschero, B.; Negrini, G.; Zanola, R.; Zozi, P.: Systematifier : a guide for the systematization of Italian literature (1995)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 128) [ClassicSimilarity], result of:
0.029598296 = score(doc=128,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 128, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=128)
0.25 = coord(1/4)
- Source
- Konstruktion und Retrieval von Wissen: 3. Tagung der Deutschen ISKO-Sektion einschließlich der Vorträge des Workshops "Thesauri als terminologische Lexika", Weilburg, 27.-29.10.1993. Hrsg.: N. Meder u.a
-
Taniguchi, S.: Mapping and merging of IFLA Library Reference Model and BIBFRAME 2.0 (2018)
0.01
0.007399574 = product of:
0.029598296 = sum of:
0.029598296 = weight(_text_:und in 162) [ClassicSimilarity], result of:
0.029598296 = score(doc=162,freq=2.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24504554 = fieldWeight in 162, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=162)
0.25 = coord(1/4)
- Abstract
- Zusammenfassung von FRBR, FRAD und FRSAD in einem Modell (vgl. das Modell selbst).
-
Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
0.029449934 = score(doc=4578,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 4578, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4578)
0.25 = coord(1/4)
- Abstract
- Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
- Content
- INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
- Series
- Sprache, Sprechen und Computer. Bd. 8
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.029449934 = score(doc=55,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.25 = coord(1/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse [email protected] geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Satija, M.P.: ¬The theory and practice of the Dewey Decimal Classification system (2007)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 631) [ClassicSimilarity], result of:
0.029449934 = score(doc=631,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 631, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=631)
0.25 = coord(1/4)
- Footnote
- Rez. in: Mitt VÖB 61(2008) H.1, S.99-103 (M. Sandner): "In der Schriftenreihe "Information Professional Series" möchte der Verlag vielbeschäftigten Angehörigen der Bibliothekszunft leicht lesbares, sehr praxisorientiertes, durch ausgewiesene Autoritäten ihres Faches abgesichertes und aktuelles State-of-the-art-Wissen anbieten. - Der Verfasser des vorliegenden Bandes gilt als solch ein arrivierter Experte in Sachen Wissensorganisation, Klassifikation im Allgemeinen und DDC, Kolonklassifikation und UDK im Besonderen. Er ist Vorstand des Departments für Bibliotheks- und Informationswissenschaft an einer indischen Universität. Seinem Text stellt er einige tiefe Verbeugungen voran: die erste gilt dem 1991 verstorbenen Herausgeber der 20. Ausgabe der DDC, den er als geistigen Koautor mit herein nimmt, die zweite gilt Melvil Dewey und dessen phänomenaler Erfindung (The sun never sets on its ever-spreading empire.), die dritte, den ganzen Text begleitende, gilt - unausgesprochen - dem Konzept der Facettierung von Ranganathan. Satijas erklärte Absicht ist es, Anfängern die DDC22 verständlich zu machen und Anwendern zu nützlichen Einsichten zu verhelfen. Einerseits, so kündigt er im Vorwort an, werde er den philosophischen Hintergrund immer wieder beleuchten, andererseits stelle das Buch einen kompletten Kurs dar: anhand didaktisch ausgewählter Beispiele solle nämlich Schritt für Schritt jeder wichtige Bereich des Klassifikationssystems angesprochen und würden alle Methoden für dessen Anwendung erklärt werden. - Keine geringen Ansprüche, die sich Verlag und Verfasser selbst stellen! Das Äußere des Buches wirkt erfrischend und modern - gerne greift man zu dem einladend bunten Band, der laut Inhaltsverzeichnis klar strukturiert scheint. Nur: wo versteckt sich wohl der angekündigte DDC-Kursteil? ... Fazit: sollte dieses Buch, liebe Leserin, lieber Leser, Ihre erste Lektüre über die DDC sein, dann lesen Sie es nicht allein und vor allem, lesen Sie nicht allein dieses! Sollten Sie aber schon einige Erfahrung mit der Dewey haben, dann werden Sie gewiss mit Gewinn all das heraushören, was ein erfahrener Professor aus der Schule zu plaudern vermag, und das, was nur Satija aus seinem Blick auf die DDC Ihnen eröffnen kann."
-
DeSilva, J.M.; Traniello, J.F.A.; Claxton, A.G.; Fannin, L.D.: When and why did human brains decrease in size? : a new change-point analysis and insights from brain evolution in ants (2021)
0.01
0.0073624835 = product of:
0.029449934 = sum of:
0.029449934 = weight(_text_:und in 1406) [ClassicSimilarity], result of:
0.029449934 = score(doc=1406,freq=22.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24381724 = fieldWeight in 1406, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1406)
0.25 = coord(1/4)
- Footnote
- Vgl. auch: Rötzer, F.: Warum schrumpft das Gehirn des Menschen seit ein paar Tausend Jahren? Unter: https://krass-und-konkret.de/wissenschaft-technik/warum-schrumpft-das-gehirn-des-menschen-seit-ein-paar-tausend-jahren/. "... seit einigen tausend Jahren - manche sagen seit 10.000 Jahren -, also nach dem Beginn der Landwirtschaft, der Sesshaftigkeit und der Stadtgründungen sowie der Erfindung der Schrift schrumpfte das menschliche Gehirn überraschenderweise wieder. ... Allgemein wird davon ausgegangen, dass mit den ersten Werkzeugen und vor allem beginnend mit der Erfindung der Schrift kognitive Funktionen, vor allem das Gedächtnis externalisiert wurden, allerdings um den Preis, neue Kapazitäten entwickeln zu müssen, beispielsweise Lesen und Schreiben. Gedächtnis beinhaltet individuelle Erfahrungen, aber auch kollektives Wissen, an dem alle Mitglieder einer Gemeinschaft mitwirken und in das das Wissen sowie die Erfahrungen der Vorfahren eingeschrieben sind. Im digitalen Zeitalter ist die Externalisierung und Entlastung der Gehirne noch sehr viel weitgehender, weil etwa mit KI nicht nur Wissensinhalte, sondern auch kognitive Fähigkeiten wie das Suchen, Sammeln, Analysieren und Auswerten von Informationen zur Entscheidungsfindung externalisiert werden, während die externalisierten Gehirne wie das Internet kollektiv in Echtzeit lernen und sich erweitern. Über Neuimplantate könnten schließlich Menschen direkt an die externalisierten Gehirne angeschlossen werden, aber auch direkt ihre kognitiven Kapazitäten erweitern, indem Prothesen, neue Sensoren oder Maschinen/Roboter auch in der Ferne in den ergänzten Körper der Gehirne aufgenommen werden.
Die Wissenschaftler sehen diese Entwicklungen im Hintergrund, wollen aber über einen Vergleich mit der Hirnentwicklung bei Ameisen erklären, warum heutige Menschen kleinere Gehirne als ihre Vorfahren vor 100.000 Jahren entwickelt haben. Der Rückgang der Gehirngröße könnte, so die Hypothese, "aus der Externalisierung von Wissen und den Vorteilen der Entscheidungsfindung auf Gruppenebene resultieren, was zum Teil auf das Aufkommen sozialer Systeme der verteilten Kognition und der Speicherung und Weitergabe von Informationen zurückzuführen ist"."
-
Sridhar, M.S.: ¬A mathematical approach to relations in thesauri (1980)
0.01
0.0073252046 = product of:
0.029300818 = sum of:
0.029300818 = weight(_text_:und in 7699) [ClassicSimilarity], result of:
0.029300818 = score(doc=7699,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24258271 = fieldWeight in 7699, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=7699)
0.25 = coord(1/4)
- Footnote
- Vgl. auch die Beiträge (mit tw. abweichender Argumentation) von G. Beling: Towards a set theoretical foundation of classification und W. Gödert: Zum Problem der Äquivalenzrelation in Dokumentationssprachen und Schönfeldt
-
Lauro, A. Di: IDIN manual for the creation and management of a bibliographic database using Micro-ISIS (1988)
0.01
0.0073252046 = product of:
0.029300818 = sum of:
0.029300818 = weight(_text_:und in 4360) [ClassicSimilarity], result of:
0.029300818 = score(doc=4360,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24258271 = fieldWeight in 4360, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4360)
0.25 = coord(1/4)
- Abstract
- Die UNESCO vertreibt kostenfrei die Software Micro-ISIS für PCs. Zur Anwendung in kleinen Dokumentationseinrichtungen unter dem Dach des International Development Information Network (IDIN) wurde ein eigenes IDIN-Format geschaffen, das unter dieser Software eingesetzt werden kann. Besonders berücksichtigt sind dabei unselbständige Werke und die Sacherschließung mit Hilfe des 'OECD Macrothesaurus for Information Processing in the Field of Economic and Social Development'. Das Format ist abgeleitet vom 'Common Communication Format (CCF)', das ebenfalls im Auftrag der Unesco entwickelt wurde. IDIN ist eine vereinfachte Version und hat eine andere Behandlung mehrteiliger Werke
-
Endres-Niggemeyer, B.: Empirical methods for ontology engineering in bone marrow transplantation (2000)
0.01
0.0073252046 = product of:
0.029300818 = sum of:
0.029300818 = weight(_text_:und in 657) [ClassicSimilarity], result of:
0.029300818 = score(doc=657,freq=4.0), product of:
0.12078692 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05446006 = queryNorm
0.24258271 = fieldWeight in 657, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=657)
0.25 = coord(1/4)
- Source
- Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel