-
Marcus, S.: Textvergleich mit mehreren Mustern (2005)
0.00
0.004797813 = product of:
0.019191252 = sum of:
0.019191252 = weight(_text_:und in 862) [ClassicSimilarity], result of:
0.019191252 = score(doc=862,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16965526 = fieldWeight in 862, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=862)
0.25 = coord(1/4)
- Abstract
- Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
-
Kleinz, T.: Konkurrenz für Wikipedia : Google bastelt an Wissensportal - Autoren sollen Anteile an Werbeeinnahmen erhalten (2007)
0.00
0.004797813 = product of:
0.019191252 = sum of:
0.019191252 = weight(_text_:und in 758) [ClassicSimilarity], result of:
0.019191252 = score(doc=758,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16965526 = fieldWeight in 758, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=758)
0.25 = coord(1/4)
- Content
- "Mit der Ankündigung einer Wissensplattform hat der Suchmaschinen-Konzern Google für reichlich Aufregung in der Internet-Szene gesorgt. Wikipedia-Gründer Jimmy Wales gibt sich betont gelassen. Das Projekt heißt Knol - die Kurzform für "Knowledge", zu Deutsch: Wissen. Noch sind nicht viele Informationen bekannt. Die Ankündigung beschränkt sich auf einem kurzen Beitrag des Google-Managers Udi Manber im Firmen-Weblog. Manber beschreibt die Mission so: "Wir glauben, dass viele Menschen ihr Wissen nicht teilen, weil es heute immer noch nicht einfach genug ist, das zu tun". Mit Knol sollen die Google-Nutzer Gelegenheit bekommen, Artikel zu beliebigen Themen zu verfassen und direkt online zu stellen. Eigentlich eine Kriegserklärung an Wikipedia, denn das Projekt hat eben den Anspruch, das Teilen von Wissen möglichst einfach zu machen." In Interviews demonstriert Wikipedia-Gründer Jimmy Wales Gelassenheit. "Google macht eine Menge toller Sachen, aber diese Sachen funktionieren nicht immer." Damit hat der 41-Jährige durchaus recht: So stellte Google vor einem Jahr seine Wissens-Plattform "Google Answers" ein, da sich nicht genug Nutzer für das Angebot interessiert hatten. Auch bei sozialen Netzwerken sind die Kalifornier im Hintertreffen. Ihr frühzeitig gestartetes Projekt Orkut liegt in Europa und Amerika weit abgeschlagen hinter Konkurrenten wie MySpace, Facebook oder StudiVZ.
Das neue Projekt hat jedoch mehr Potenzial. Zwar will Google die Autoren der Knol-Artikel nicht direkt bezahlen, dafür werden sie aber an den Werbe-Erlösen der Plattform beteiligt. Wer einen besonders gefragten Artikel schreibt, kann Monat für Monat mit entsprechenden Einnahmen rechnen. Anders als bei Wikipedia sollen die Artikel keine Gemeinschaftsarbeit sein. Zwar kann jeder Nutzer Verbesserungsvorschläge machen und Artikel bewerten, für die Texte ist aber immer nur ein Autor verantwortlich. Zu einem bestimmten Thema können mehrere Autoren mit ihren Texten konkurrieren. Spannend ist auch die Verknüpfung mit der Suchplattform, dem Kern-Geschäft von Google. So sollen Knol-Artikel direkt in die Suchergebnis-Listen der Kalifornier einfließen. Für die Autoren bedeutet dies eine hohe Reputation, wenn ihr Artikel bei der Internet-Suche ganz oben steht. Für die Google-Ingenieure bietet die Integration andere Vorteile: Anhand der Knol-Texte könnten sie die Qualität der Suchergebnisse insgesamt verbessern. Wird ein Knol-Artikel von den Nutzern gut bewertet, kann Google daraus schließen, welche Suchergebnisse besonders gefragt oder qualitativ hochwertig sind."
-
Schlosser, H.; Leppert, G.: ¬Die Kartoffel ist ein Fremdwort : Horst Schlosser lobt importierte Begriffe (2008)
0.00
0.004797813 = product of:
0.019191252 = sum of:
0.019191252 = weight(_text_:und in 1418) [ClassicSimilarity], result of:
0.019191252 = score(doc=1418,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16965526 = fieldWeight in 1418, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=1418)
0.25 = coord(1/4)
- Content
- "Herr Schlosser, das Goethe-Institut und der Deutsche Sprachrat haben einen Wettbewerb mit dem Titel "Das beste eingewanderte Wort" ausgeschrieben. Was ist Ihr persönlicher Favorit? Es gibt mehrere Wörter, die meiner Ansicht nach diese Auszeichnung verdient hätten. Zum Beispiel: Wein oder Kartoffel. Wein? Kartoffel? Wir dachten, Sie entscheiden sich für Outsourcing oder Assimilation. Für ein richtiges Fremdwort eben. Sehen Sie, das ist genau der Punkt. Wenn von Fremdwörtern die Rede ist, denkt jeder an solche Begriffe. Viele wissen gar nicht, dass Wein vom Lateinischen Vinum und Kartoffel vom italienischen Wort Taratopoholi stammt. Die meisten Menschen denken, das seien originär deutsche Wörter. Wir benutzen also weitaus mehr Fremdwörter, als wir glauben? Allerdings. Die deutsche Sprache hat einen Wortschatz von etwa 400 000 bis 500 000 Wörtern - was im Übrigen sehr viel ist. Rund 100 000 Begriffe sind aus anderen Sprachen eingewandert. Hilft der Wettbewerb, das Bewusstsein dafür zu stärken? Sicher, ich halte diesen Wettbewerb für eine gute Sache. Es ist wichtig zu verbreiten, dass eine Sprache nicht nur von sich selbst lebt, sondern auf Importe angewiesen ist. Natürlich droht bei solchen Sprachwettbewerben immer eine gewisse Beliebigkeit, und manch einer wählt nicht das Wort, sondern die Sache, die es beschreibt. Bei einem Wettbewerb zum schönsten Wort hätte Schokolade gute Chancen. Grundsätzlich aber macht so eine Aktion deutlich, dass die Übernahme von sprachlichen Elementen aus anderen Kulturen nichts Anrüchiges ist. Mit dieser Meinung machen Sie sich bei Menschen, die die deutsche Sprache möglichst frei von Fremdwörtern halten wollen, aber keine Freunde. Ja, deren Argumente kenne ich: Wir geben unsere Kultur - das ist im Übrigen auch ein Fremdwort - auf, wenn wir unsere Sprache aufgeben. Das ist Unsinn. Die Sprache geht nicht durch den Import von Wörtern unter, sonst wäre die deutsche Sprache seit 1200 Jahren tot. Damals hielten unendlich viele lateinische Begriffe in die deutsche Sprache Einzug. Sie sind also gegen die Eindeutschung von Fremdwörtern? Diese Initiativen haben häufig etwas Albernes. Da soll man dann Klapprechner statt Laptop sagen. Das halte ich für unsinnig. Im Übrigen ist die Idee, Fremdwörter zu übersetzen, alles andere als neu. Schon die Sprachgesellschaften im 17. Jahrhundert wollten das Wort Kloster durch Jungfernzwinger ersetzen. Hat sich nicht wirklich durchgesetzt. Sind alle derartigen Versuche gescheitert? Nein, das kann man nicht sagen. Statt Adresse sagen viele Menschen Anschrift, statt Korrespondenz ist das Wort Briefwechsel geläufig. Das ist auch sehr gut so, denn auch ich bin gegen einen unnötigen Gebrauch von Fremdwörtern. Ich finde nur, man sollte nichts dramatisieren. Es gibt durchaus Bereiche, in denen sich die besonders scharf kritisierten Anglizismen so gut wie gar nicht durchgesetzt haben. Können Sie ein Beispiel nennen? Im Rechtswesen etwa spielen die englischen Wörter so gut wie keine Rolle. Bemerkenswert ist übrigens auch, dass die Bild-Zeitung weitgehend auf Anglizismen verzichtet. Zu viel Englisch würde Leser kosten."
-
Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008)
0.00
0.004797813 = product of:
0.019191252 = sum of:
0.019191252 = weight(_text_:und in 2403) [ClassicSimilarity], result of:
0.019191252 = score(doc=2403,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16965526 = fieldWeight in 2403, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=2403)
0.25 = coord(1/4)
- Content
- "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
-
Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002)
0.00
0.004797813 = product of:
0.019191252 = sum of:
0.019191252 = weight(_text_:und in 4731) [ClassicSimilarity], result of:
0.019191252 = score(doc=4731,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16965526 = fieldWeight in 4731, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.03125 = fieldNorm(doc=4731)
0.25 = coord(1/4)
- Abstract
- Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
- Content
- Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
-
Röttgers, J.: ¬Eine rote Leiste verrät Datensammler : Ergänzungen im Webbrowser helfen Surfern, ihre Privatsphäre zu bewahren (2003)
0.00
0.004645462 = product of:
0.018581849 = sum of:
0.018581849 = weight(_text_:und in 1245) [ClassicSimilarity], result of:
0.018581849 = score(doc=1245,freq=10.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.164268 = fieldWeight in 1245, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.0234375 = fieldNorm(doc=1245)
0.25 = coord(1/4)
- Content
- "Wer online unterwegs ist, hinterlässt Spuren. Webseiten merken sich, von welcher Netzadresse mit welchem Programm zugegriffen wird. Sie senden kleine Datenpakete auf die Rechner der Surfer; die Cookie genannten Dateien ermöglichen es, Besucher beim erneuten Zugriff auf eine Seite wiederzuerkennen. Viele Angebote erfordern zudem eine Registrierung, viele geben sich dabei ziemlich neugierig. Wie groß ist das monatliche Haushaltseinkommen? Was wurde in den vergangenen Wochen gekauft? Wie viele Stunden verbringt man im Netz? Was stellen Web-Anbieter mit all den Informationen an? Wer darauf eine Antwort will; .muss sich oft durch lange Datenschutzrichtlinien kämpfen, ohne hinterher viel schlauer zu sein. Eine Technik namens P3P soll den Konsumenten helfen. Web-Anbieter teilen damit Surfern in maschinenlesbarer Form mit, was sie mit ihren persönlichen Daten anstellen. Ausgewertet werden die Angaben beispielsweise von einem Webbrowser. Das Programm kann so entscheiden, ob und zu welchen Bedingungen es Daten mit der betreffenden Seite austauscht. Ein Browser könnte etwa Cookie-Dateien nur für die Dauer eines Zugriffs akzeptieren,' wenn das für personalisierte Dienste wie Webmail sinnvoll ist, oder den Benutzer davor warnen, dass der Anbieter E-Mail-Adressen an seine Werbekunden weitergibt. Offiziell eingeführt wurde P3P im April. Daher gibt es erst eine Hand voll Programme, die den Standard unterstützen. Das bekannteste ist Microsofts Internet Explorer in der sechsten Version. Der Browser nutzt P3P, um seinem Anwender größere Freiheiten im Umgang mit Cookie-Dateien zu geben. Nach Angaben der Universität Hannover verwenden 35 Prozent der deutschen Surfer die Software. Freilich dürften die wenigsten die P3P-Option kennen; sie arbeitet eher verborgen. AT&T Privacy Bird hat sich dagegen der öffentlichen Aufklärung verschrieben. Das kleine Programm klinkt sich in die Titelleiste des Webbrowsers ein und zeigt deutlich, ob der besuchten Seite in Sachen Datenschutz zu trauen ist: Genügt sie den eigenen Voreinstellungen, färbt sich der Datenschutz-Vogel grün. Verstößt sie dagegeit, läuft er rot an. Bei Seiten ohne P3P-Informationen bleibt er gelb. ' Programme wie dieses seien "einfache Werkzeuge, um erst einmal ein Leben mit P3P zu erkunden", erklärt Marc Langheinrich von der Technischen Hochschule Zürich. Er ist Koautor der P3P Spezifikationen. Es wird noch eine ganze Weile dauern, bis man wirklich zufrieden stellende Lösungen konzipieren kann", sagt er. Doch die schönste Software bringt wenig, wenn Web-Anbieter ihre Datenschutzrichtlinien nicht in dem Format zur Verfügung stellen. In den USA beginnen die großen Web-Anbieter, sich auf P3P einzulassen; das Lycos-Portal geht als Vorbild voran. In Deutschland sieht es anders aus. Publikumslieblinge wie spiegel.de, web.de bild.de oder freenet.de bieten keine maschiilnenlesbaren Datenschutz Erklärungen an. Von den bekannten Webseiten unterstützt nur tagesschau.de P3P. Immerhin ist einigen Anbietern die Problematik bekannt. So erklärt die Comdirect-Bank auf Anfrage, man verfolge die Entwicklung, habe aber keine konkreten Pläne. Man wartet offenbar ab, bis die Surfer das Thema offensiver aufgreifen.
So sagt Hanno Müller von Grußkarten-Anbieter edgarde: "Noch haben zu wenig Anwender einen P3P-fähigen Browser. Die,'die einen haben, wissen nicht, dass es P3P gibt und was sie damit anfangen können." Paradoxerweise sorgen die im interna tionalen Vergleich strengen deutschen Datenschutzgesetze dafür, dass sich nur wenige heimische Anbieter für P3P begeistern. In den USA sind die Vorschriften weitaus laxer. Das führte dazu, dass Firmen Datenschutz als Wettbewerbsvorteil begreifen und offensiv damit werben. Hier zu Lande sind die rechtlichen Standards höher, Unternehmen informieren ihre Kunden dafür weniger über Datenspeicherungen. Manche große Webanbieter verzichten sogar ganz auf Datenschutzhinweise; andere erklären lapidar, keine Gesetzesbrecher zu sein:. "Bei der Verwaltung ihrer Daten halten wir uns an die gesetzlichen Vorschriften." Eine Praxis, die Datenschutzbeauftragte als unzureichend ablehnen. Mehr Druck von Verbrauchern - den werde es nur geben, wenn die User mehr um die Risiken wissen, die das Surfen und Einkaufen im Netz mit sich bringen, erläutert Marc Langheinrich: "Solange sich der Bürger ausreichend von staatlichen Organen beschützt fühlt, wird da wenig Drang sein, sich seine Bücher nur von datenschutzfreundlichen Websites zu kaufen."
-
IFLA Cataloguing Principles : steps towards an International Cataloguing Code. Report from the 1st Meeting of Experts on an International Cataloguing Code, Frankfurt 2003 (2004)
0.00
0.0045935563 = product of:
0.018374225 = sum of:
0.018374225 = weight(_text_:und in 2312) [ClassicSimilarity], result of:
0.018374225 = score(doc=2312,freq=22.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.16243255 = fieldWeight in 2312, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=2312)
0.25 = coord(1/4)
- BK
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
- Classification
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
- Footnote
- Weitere Rez. in: ZfBB 52(2005) H.3/4, S.227-228 (K. Haller): " ... Im Mittelpunkt der Publikation steht das revidierte Statement of International Cataloguing Principles. Es wendet sich mit seinen Grundsätzen gleichermaßen an Bibliografien und Bibliothekskataloge sowie Datensammlungen in Archiven, Museen und dergleichen Einrichtungen. Terminologisch und inhaltlich geht das Statement von den Functional Requirements for Bibliographic Records (FRBR) aus. Durch die Functional Requirements and Numbering of Authority Records (FRANAR) werden die Normdateien und die Sacherschließung in das Statement eingebracht. Die FRBR sind ein theoretisches Modell, ein strategisches Dokument, in dem durch die Entitäten die logischen Zusammenhänge dargestellt und damit die notwendi ge Erschließungsqualität definiert wird. Es geht um klare Grundsätze für Wahl, Anzahl und Art der Suchbegriffe (access points) und deren Beziehungen. ... Insgesamt ist die Publikation sehr zu begrüßen und als Pflichtlektüre allen Verantwortlichen im Erschließungsbereich und dem in Ausbildung befindlichen Nachwuchs dringend zu empfehlen."
-
Human perspectives in the Internet society : culture, psychology and gender; International Conference on Human Perspectives in the Internet Society <1, 2004, Cádiz> (2004)
0.00
0.0043797838 = product of:
0.017519135 = sum of:
0.017519135 = weight(_text_:und in 91) [ClassicSimilarity], result of:
0.017519135 = score(doc=91,freq=20.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.15487336 = fieldWeight in 91, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.015625 = fieldNorm(doc=91)
0.25 = coord(1/4)
- BK
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- RVK
- AP 15840 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Elektronisch unterstützte Formen
MS 7850 Soziologie / Spezielle Soziologien / Soziologie der Massenkommunikation und öffentlichen Meinung / Allgemeine Theorie der gesellschaftlichen Kommunikation und ihrer Medien; Begriff der Öffentlichkeit; Meinungsbildung, public relations
-
Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004)
0.00
0.004198086 = product of:
0.016792344 = sum of:
0.016792344 = weight(_text_:und in 2124) [ClassicSimilarity], result of:
0.016792344 = score(doc=2124,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14844835 = fieldWeight in 2124, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=2124)
0.25 = coord(1/4)
- Content
- "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
-
Veltman, K.H.: From Recorded World to Recording Worlds (2007)
0.00
0.004198086 = product of:
0.016792344 = sum of:
0.016792344 = weight(_text_:und in 512) [ClassicSimilarity], result of:
0.016792344 = score(doc=512,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14844835 = fieldWeight in 512, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=512)
0.25 = coord(1/4)
- Content
- Vgl. Hinweis in: Online-Mitteilungen 2007, Nr.91 [=Mitt. VOEB 60(2007) H.3], S.15: "Auf der Tagung "Herausforderung: Digitale Langzeitarchivierung - Strategien und Praxis europäischer Kooperation" welche vom 20. bis 21. April 2007 in der Deutschen Nationalbibliothek (Frankfurt am Main) stattfand, befassten sich die einzelnen Referentinnen nicht nur mit der Bewahrung des Kulturgutes, sondern u.a. auch mit der "Aufzeichnung der Welten". Wie man diese "Weltaufzeichnung" in Anbetracht der Fülle und stetigen Zunahme an Informationen zukünftig (noch) besser bewältigen kann, thematisierte Kim H. Veltman in seinem Vortrag. Er präsentierte dazu vier äußerst denkwürdige Ansätze: - Schaffung einerzentralen europäischen Instanz, welche die Gedächtnisinstitutionen über die neusten technologischen Entwicklungen informiert - Errichtung eines digitalen Referenzraums und einer virtuellen Agora innerhalb der Europäischen Digitalen Bibliothek - Gründung eines Instituts zur Wissensorganisation - Erforschen der Anforderungen für eine "Universal Digital Library"."
-
Weinberger, D.: Everything is miscellaneous : the power of the new digital disorder (2007)
0.00
0.004198086 = product of:
0.016792344 = sum of:
0.016792344 = weight(_text_:und in 2862) [ClassicSimilarity], result of:
0.016792344 = score(doc=2862,freq=6.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14844835 = fieldWeight in 2862, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.02734375 = fieldNorm(doc=2862)
0.25 = coord(1/4)
- Footnote
- Weitere Rez. in: BuB 59(2007) H.10, S.750-751 (J. Plieninger: Vermischtes und noch mehr ...): "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. ..." Weitere Rez. in JASIST 60(2009) no.6, S.1299-1300 (G Thornton). Vgl. für Rezensionen auch: http://www.everythingismiscellaneous.com/reviews/.
-
Dekkers, M.: Dublin Core and the rights management issue (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 4453) [ClassicSimilarity], result of:
0.01662011 = score(doc=4453,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 4453, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4453)
0.25 = coord(1/4)
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.33-38
-
Andresen, L.: Standardisation of Dublin Core in Europe (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 4454) [ClassicSimilarity], result of:
0.01662011 = score(doc=4454,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 4454, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=4454)
0.25 = coord(1/4)
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.39-45
-
Breitenstein, M.: Indexing models as social systems (2008)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5457) [ClassicSimilarity], result of:
0.01662011 = score(doc=5457,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5457, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5457)
0.25 = coord(1/4)
- Source
- Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
-
Mußler, G.; Reiterer, H.; Mann, T.M.: INSYDER - Information Retrieval aspects of a business intelligence system (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5487) [ClassicSimilarity], result of:
0.01662011 = score(doc=5487,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5487, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5487)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschäftigt sich mit INSYDER, einem visuell unterstützten Suchsystem im Umfeld der sogenannten Business Intelligence Systeme. Dabei liegt der Schwerpunkt dieses Beitrags in der Erläuterung der Information Retrieval- und Visualisierungsaspekte zur Unterstützung des Suchprozesses im WWW. Vorgestellt wird das Rankingverfahren, das Interaktive Relevance Feedback sowie die Beschreibung der Unterstützung des Benutzers bei der Formulierung der Suchanfrage mittels Visualisierung.
-
Jaaranen, K.; Lehtola, A.; Tenni, J.; Bounsaythip, C.: Webtran tools for in-company language support (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5553) [ClassicSimilarity], result of:
0.01662011 = score(doc=5553,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5553, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5553)
0.25 = coord(1/4)
- Source
- Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
-
Stone, A.T.: ¬The LCSH century : a brief history of the Library of Congress Subject Headings, and introduction to the centennial essays (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5600) [ClassicSimilarity], result of:
0.01662011 = score(doc=5600,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5600, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5600)
0.25 = coord(1/4)
- Content
- Mit einer Publikationsgeschichte der LCSH (vgl. Tabellen) und dazu gehörenden Publikationen
-
Heiner-Freiling, M.: Survey on subject heading languages used in national libraries and bibliographies (2000)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5921) [ClassicSimilarity], result of:
0.01662011 = score(doc=5921,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5921, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5921)
0.25 = coord(1/4)
- Content
- Mit einer tabellarischen Übersicht der eingesetzten Systeme und Regeln
-
dpa: Mädchen erkennen Formen früher : Psychologie (2001)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5927) [ClassicSimilarity], result of:
0.01662011 = score(doc=5927,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5927, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5927)
0.25 = coord(1/4)
- Abstract
- Weibliche Säuglinge erkennen dreidimensionale Formen früher als gleichaltrige Jungen. Das haben Psychologen der Universität Bonn herausgefunden. Weiteres Ergebnis ihrer Studien: Schon im Alter von acht Monaten können Babys beispielsweise eine gezeichnete Scheibe von einer Kugel unterscheiden, berichtet die Hochschule. Drei Monate jüngere Säuglinge seien dazu noch nicht in der Lage. Als Anschauungsmaterial zeichneten Forscher den stilisierten Umriss einer Röhre. Varianten dieses Bildes hatten einige kurze Linien mehr oder weniger. Dank dieser hinzugefügten oder weggelassenen Elemente war das jeweilige Bild besser oder schlechter als Röhre zu erkennen. Weil sie die kleinen Probanden nicht zu ihren Eindrücken befragen konnten, mussten die Psychologen einen anderen Weg finden. Dazu gewöhnten sie die Babys zunächst an ein Ausgangsbild und zeigten ihnen dann eine neue Zeichnung. Das Kind reagiert überrascht, wenn es einen Unterschied wahrnimmt; je überraschter, desto , länger wird so sich das neue Bild &mühen. Oder umgekehrt: Je länger der Säugling das neue Bild betrachtet, desto deutlicher ist ihm der Unterschied zum Ausgangsbild aufgefallen", berichtet der beteiligte Wissenschaftler Michael Kavsek
-
Egger, A.; Schloffer, E.: Digitale Bibliotheken in den USA : ein Reisebericht (2001)
0.00
0.0041550277 = product of:
0.01662011 = sum of:
0.01662011 = weight(_text_:und in 5955) [ClassicSimilarity], result of:
0.01662011 = score(doc=5955,freq=2.0), product of:
0.1131191 = queryWeight, product of:
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.051038075 = queryNorm
0.14692576 = fieldWeight in 5955, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.216367 = idf(docFreq=13101, maxDocs=44218)
0.046875 = fieldNorm(doc=5955)
0.25 = coord(1/4)
- Abstract
- Im Februar dieses Jahres hatte ich im Anschluss an eine Konferenz in New York dank unserer internationalen Kontakte aus dem METAe-Projekt die Möglichkeit, einige Institutionen in den USA, in denen Bibliotheksbestände digitalisiert werden, zu besuchen. Ziel war es, für unser METAe-Projekt die tägliche Praxis in der Digitalisierung besser kennen zu lernen. Auf meiner zehn Tage langen Reise beschränkte ich mich auf die vier "Must Sees" der digitalen Bibliotheken. Meine Reise begann in New York in der New York Public Library, welche vor allem für ihre Digitalisierungsabteilung bekannt ist. Weiter ging es dann nach Detroit in die University of Michigan, deren Stärke in der Erstellung und Verwaltung von elektronischen Texten liegt. Meine vorletzte Station, die Cornell University in Ithaca in der Nähe von Pittsburgh, entwickelt Software für digitale Bibliotheken. Harvard University, Boston, - letzte Station meiner Reise - ist bekannt für ihr hervorragend eingerichtetes Digitalisierungslabor