-
Pfleger, C.: ¬Die Didaktik des Fernunterrichts in Formalerschließung (2003)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 2792) [ClassicSimilarity], result of:
0.030131513 = score(doc=2792,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 2792, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2792)
0.25 = coord(1/4)
- Abstract
- Bei der Gestaltung des Fernunterrichts sollten mehrere Lerntheorien herangezogen werden. Kognitive, pragmatische und affektive Lernziele wurden formuliert. Für die kognitiven Lernziele wurde die Lernzieltaxonomie von Bloom an die weitergehenden Erfordernisse des Formalerschließungsunterrichts angepasst. Daneben wurden persönliche Kompetenzen angegeben. Der Unterricht muss auf die Bedürfnisse der Zielgruppe abgestimmt sein. Zu beachten sind Alter, Bildungsgrad, fachspezifische Vorbildung, Geschlecht und die verschiedenen Lernstile. Besonders Fernstudien bedürfen entsprechender Motivierung der Lernenden. Dafür wurde die ARCS-Motivationstheorie um den Punkt "Freiheit" erweitert. Die neun Instruktionsereignisse von Gagné wurden durch konstruktivistische Methoden zu elf "didaktischen Anweisungen" ergänzt und für den Formalerschließungsfernunterricht ausformuliert.
-
Eberhardt, J.: ¬Eine handlungsorientierte Einführung - das Online-Tutorial der UB Tübingen (2003)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 2943) [ClassicSimilarity], result of:
0.030131513 = score(doc=2943,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 2943, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2943)
0.25 = coord(1/4)
- Abstract
- Ob sie ihre Abende und Wochenenden lieber im Biergarten verbringen sollte, als ein Online-Tutorial zu stricken, fragte Janet MacKenzie von der Bibliothek der Institute am Englischen Garten der UB München am 5. Mai in INETBIB. Die Frage verdankte sich ihrer Beobachtung, dass Studierende als Hauptnutzer einer UB immer weniger bereit sind, die konventionellen Einführungsangebote wahrzunehmen. Sie erbitten statt dessen immer mehr die gerade benötigte Suchhilfe am Auskunftsschalter "just in time". Aber vielleicht ist gerade da ein Online-Tutorial die richtige Lösung: als spielerische, zeitlich und räumlich unabhängige Möglichkeit, die Bibliothek kennenzulernen und Informationskompetenz zu erwerben. Soweit ich sehe, ist das Tutorial der Münchner noch nicht am Netz. Aber andere, vor allem im angloamerikanischen Raum, bieten Bibliothekstutorials schon länger an. TILT, das Texas Information Literacy Tutorial, ist seit einigen Jahren das bekannteste Beispiel. Auch in Deutschland hat sich einiges getan. Seit 1999 gibt es den Schlauen Det der Bibliothek der Fachhochschule Hamburg. Im BIBLIOTHEKSDIENST 7 (2003) wurde das Tutorial der UB Lüneburg vorgestellt, das Tutorial der UB Kassel basiert auf der Lüneburger Software. Auch die UB Tübingen bietet seit kurzem eine Online-Einführung in die Katalogrecherche an
-
bs: Software mbH (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3058) [ClassicSimilarity], result of:
0.030131513 = score(doc=3058,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3058, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3058)
0.25 = coord(1/4)
- Content
- "Neues kann die Encarta in Form einer Suchleiste bieten. Diese lässt sich in der Taskleiste einblenden und erlaubt den sofortigen Start einer Recherche, gleich welche Programme gerade geladen sind. Besitzer der Professional-Ausgabe kommen außerdem in den Genuss einer Kindervariante. Diese enthält ausgewählte, kindgerecht aufbereitete Artikel und wird als eigenes Programm gestartet. Auch der kostenlose Zugriff auf die Artikel von MSN Encarta Premium im Web ist auf die Professional-Ausga be beschränkt. Dieses Feature läuft allerdings mitdem 31. Oktober 2005 aus. Daraus ergibt sich die kuriose Situation, dass sich der Nutzwert mit der Zeit verringert. Dies gilt auch für den integrierten Online-Englischkurs, der allerdings bis zum Dezember haltbar ist. Erwirbt man also im Frühjahr oder gar noch im Sommer die Encarta, erhält man weniger für sein Geld. Ob das auf der Verpackung steht? Natürlich, und zwar auf der Unterseite am Ende des Kleinstgedruckten. Wer da seine Lupe nicht dabei hat..."
-
Hölscher, C.: ¬Die Rolle des Wissens im Internet : Gezielt suchen und kompetent auswählen (2002)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3107) [ClassicSimilarity], result of:
0.030131513 = score(doc=3107,freq=24.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3107, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3107)
0.25 = coord(1/4)
- Footnote
- Rez. in BuB 56(2004) H.4, S.84-86 (D. Lewandowski): "Eines vorab: Sowohl der Titel als auch der Klappentext dieses Bandes sind irreführend. Man würde annehmen, dass es sich um einen weiteren Ratgeber zur Internetre-cherche handelt; dies ist jedoch nicht der Fall. Vielmehr untersucht der Autor das Rechercheverhalten so genannter Internetexperten, wobei ein »Experte« hier durch seine (mehrjährige) Erfahrung mit dem Internet definiert wird. Eine formale Ausbildung spielt keine Rolle: »Bezüglich ihrer Web-Kenntnisse sind die Teilnehmer [der Untersuchungen] als Autodidakten zu beschreiben, die sich ihr Wissen über die Jahre eigenständig, zum Teil als Hobby, insbesondere aber im Rahmen eines training-onthe job selbst angeeignet haben« (Seite 102). - Zwei Vergleichsstudien - Nach einführenden Kapiteln über die Expertiseforschung in der Psychologie, ihrer Anwendung auf Fragen des Information Retrieval und Betrachtungen über das Konzept des Hypertexts sowie einem Uberblick über Nutzerstudien im Bereich der Websuche kommt der Autor zum Kernpunkt seines Werks. Er besteht aus zwei Untersuchungen, die der Verfasser im Rahmen seines Dissertationsprojekts, dessen Ergebnisse das vorliegende Buch darstellt, durchgeführt hat. Für die erste Studie machte der Autor Interviews mit den Versuchspersonen, um ihre grundsätzlichen Recherchestra tegien kennen zu lernen und anhand der Ergebnisse ein Ablaufdiagramm typischer Internetrecherchen zu erstellen. In einem zweiten Schritt mussten die Versuchspersonen einige Suchaufgaben lösen. Dabei wurde beobachtet, inwieweit sich das Suchverhalten der Experten von demjenigen des durchschnittlichen Nutzers unterscheidet. Der Vergleich erfolgte auf Basis eines Rechercheprotokolls (Query Log) der Suchmaschine Fireball. Ergebnis war unter anderem, dass die Experten häufiger Operatoren und die Möglichkeit der Phrasensuche nutzten und dass ihre Anfragen aus durchschnittlich mehr Suchbegriffen bestanden. In der zweiten Studie wurde eine Expertengruppe direkt mit Internetanfängern verglichen. Die Aufgabenstellungen kamen aus dem Bereich der Volkswirtschaft (Euro-Umstellung). Die Versuchsteilnehmer wurden in vier Gruppen aufgeteilt: jeweils Anfänger und Experten mit beziehungsweise ohne volkswirtschaftliche Vorkenntnisse. Das Ergebnis war, dass die Gruppe der »Doppelexperten« deutlich bessere Resultate erzielte als Teilnehmer der anderen Gruppen. Erfahrungen nur im volkswirtschaftlichen Bereich oder aber in Bezug auf die Internetrecherche reichten nicht aus, um die Aufgaben besser zu lösen als die so genannten Doppellaien. Allerdings stellt der Autor selbst fest, dass der Schwierigkeitsgrad der gestellten Aufgaben für die Versuchspersonen zu hoch war. Besonders gravierend war dies bei der letzten Aufgabe. Diese konnten von den 47 Teilnehmern nur zwei erfolgreich bearbeiten; interessanterweise ein Doppelexperte und ein Doppellaie. Unter anderem diese Feststellung stellt die Kriterien für einen »Web-Experten« infrage. Interessant wäre es gewesen, wenn anstatt der Abgrenzung durch das Kriterium Web-Erfahrung »wirkliche« Experten wie Bibliothekare und Informationsvermittler die untersuchte Expertengruppe gebildet hätten. Zwar hätten sich bei dem aufgezeichneten exemplarischen Ablauf einer Recherche wohl keine gravierenden Unterschiede ergeben, wahrscheinlich aber bei der Lösung der Suchaufgaben. Die im Anhang abgedruckten Aufgaben erscheinen auch für den nicht volkswirtschaftlich gebildeten Profi als nicht übermäßig schwierig. Die Aussage, dass nur Doppelexperten Suchaufgaben besser lösen können als Anfänger in beiden Bereichen, ist also durchaus fragwürdig. Der Autor kommt zu dem Schluss, dass »inhaltliches Wissen - zumindest für sehr spezifische, inhaltlich anspruchsvolle Aufgaben - als Hilfsmittel der Recherche nur schwer zu kompensieren [ist] « (Seite 185). Dem ist bei hoch spezialisierten Fragestellungen sicherlich zuzustimmen; dabei sollte allerdings eine klare Grenze gesetzt werden, was denn nun sehr spezifische Aufgaben sind.
- Mangelnde Aktualität - Im Schlusskapitel des Buchs wird ein Ausblick auf technische Verbesserungen und Forschungsperspektiven, die sich aus der Untersuchung ergeben, dargestellt. Zu den Verbesserungsvorschlägen zählen unter anderem die Möglichkeit des Suchens mittels natürlichsprachlicher Anfragen, die Verbesserung des Rankings, das Vorschlagen von Suchbegriffen durch die Suchmaschine oder der Einsatz von Visualisierungstechniken. Einen Bedarf für weitere Forschungsarbeiten sieht der Autor in der Erhebung der Differenzen in der Spezifität der von Laien und Experten verwendeten Suchbegriffe. Während sich die vorliegende Untersuchung auf die formalen Aspekte der Gestaltung von Suchanfragen (Einsatz von Operatoren und so weiter) beschränkte, könnten weitere Untersuchungen somit auf deren inhaltliche Gestaltung erweitert werden. Zusammenfassend ist festzuhalten, dass die im vorliegenden Werk erzielten Ergebnisse leider doch recht mager sind. Dies mag damit zusammenhängen, dass die Dissertation bereits im Jahr 2000 abgeschlossen wurde und viele Feststellungen in Bezug auf das Nutzerverhalten mittlerweile als bekannt vorausgesetzt werden können. Hinzu kommt, dass die hier vorliegende Verlagsfassung der Arbeit nur marginal aktualisiert wurde. Ein einführendes Kapitel, das sich grundlegend mit der Websuche befasst, sowie die Schlussfolgerungen sind heute leider aufgrund der mangelnden Aktualität nahezu wertlos."
-
Pika, J.: Klassifikation Erdwissenschaften : Eine neue Klassifikation für die erdwissenschaftliche Bibliothek der ETH Zürich (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3180) [ClassicSimilarity], result of:
0.030131513 = score(doc=3180,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3180, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3180)
0.25 = coord(1/4)
- Abstract
- In Freihandbibliotheken geniessen die Benutzer das Privileg, die Dokumente selber zu sehen, ehe sie sie ausleihen. Daher ist eine Anordnung, welche dem wissenschaftlich interessierten Benutzer behilflich ist, von extremer Wichtigkeit. Die benachbarten Dokumente können sogar relevanter sein, als das bereits gesuchte Exemplar! So wie die ETH-Bibliothek, als größte Schweizer Bibliothek, spielte bisher die Geologie-Bibliothek zusammen mit einer kleineren Fachbibliothek (Kristallographie, Mineralogie und Petrographie Bibliothek) die wichtigste Rolle für die Erdwissenschaften in der Schweiz. Im Jahr 2003 fusionierten beide zu einer einzigen erdwissenschaftlichen Bibliothek. Da die bisherige, seit längerer Zeit nicht mehr adäquate Aufstellungssystematik der bei weitem größeren Geologie-Bibliothek (Freihand), nicht mehr dem heutigen Stand der Erdwissenschaften entsprach, (die kleinere Bibliothek wird in der grösseren implementiert), habe ich eine neue Systematik für Erdwissenschaften in mehreren Phasen entworfen, getestet und kürzlich eingeführt. Ein Umfrage-Feedback diverser Fachgremien (Studierende Dozenten, usw.) hat die Systematik positiv eingestuft.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.147-150
-
cw: ¬Das große Bertelsmann A-Z Lexikon 2007 (2007)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3216) [ClassicSimilarity], result of:
0.030131513 = score(doc=3216,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3216, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3216)
0.25 = coord(1/4)
- Abstract
- Äußerst übersichtlich und effizient präsentiert sich das aktuelle A-Z Lexikon von Bertelsmann, für dessen Software-Umsetzung USM verantwortlich zeichnet.
- Content
- "Die rund 150.000 Stichwörter werden alphabetisch oder nach Rubriken wie Fachgebiete, Zeitbereiche, Geografie, Organisation und Ereignisse sortiert. Natürlich stehen auch eine Reihe von Suchfunktionen zur Verfügung. Der Übersicht ebenso zuträglich ist ein zusätzliches Vorschaufenster, das die nächstgereihten lexikalen Einträge mit einer Kurzzusammenfassung darstellt. Generell sind die Gliederung und die Suchfunktion die wesentlichen Pluspunkte des multimedialen Nachschlagewerkes, das darüber hinaus auch mit einem guten Preis-/Leistungsverhältnis zu punkten weiß. Nicht zuletzt aufgrund des Preises kann man dann auch darüber hinwegsehen, dass Verlinkungen zu anderen Einträgen nicht omnipräsent sind. Auch die Anzahl von multimedialen Inhalten könnte etwas höher bemessen sein, sowie der eine oder andere Beitrag etwas aussagekräftiger. Doch dank einer kostenlosen Update-Funktion lässt sich das lexikale Werk für eine bestimmte Zeitspanne auf dem neuesten Stand halten."
-
Sixtus, M.: Schlüssel gegen Spam : Yahoo macht seine Technik öffentlich, die gefälschte Mails erkennt - in Hoffnung dass sie zum Standard wird (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3217) [ClassicSimilarity], result of:
0.030131513 = score(doc=3217,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3217, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3217)
0.25 = coord(1/4)
- Abstract
- Unerwünschte Mails legen das Kommunikationssystem der Bundesregierung lahm. Die Universität Braunschweig schaltet gar ihren Reklameschutz aus, weil selbst 20 Systeme zu langsam filtern - und gewünschte Nachrichten zu spät ankommen. Die Probleme, die Spam auslösen, spitzen sich dramatisch zu - aller verschärften juristischen Vorgaben zum Trotz. Yahoo geht nun in die Offensive und stellt fremden Anbietern und Entwicklern Teile seiner Abwehrtechnik zur Verfügung. Der Portalbetreiber hat den Programmcode an das Standardisierungsgremium Internet Engineering Task Force (IETV) übermittelt. Dass alleine Gesetze gegen Werbemails wenig bewirken, befürchten Fachleute schon lange. Als Grund nennen sie das mehr als 20 Jahre alte Transportprotokoll MP Die Abkürzung steht für "Simple Mail Transfer Protocol`: Die Absprache, die die Übertragung von Nachrichten zwischen zwei Mailrechnern regelt, hat nicht zu Unrecht "Simple" in Namen. Denn ein Test, ob die Absender wirklich die sind, die sie vorgeben zu sein, fehlt dort. Das nutzen die Absender von Reklame genauso aus wie Betrüger, die von unbedarften Internet-Nutzern Passwörter oder Zugangsdaten ergaunern wollen ("Phishing").
-
Foerster, H. von: Short cuts (2002)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
0.030131513 = score(doc=3413,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3413, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3413)
0.25 = coord(1/4)
- Abstract
- "Handle stets so, daß die Anzahl der Wahlmöglichkeiten größer wird." In aller Weisheit, jedenfalls in der, die sich der Welt zuwendet, steckt ein gut Teil Gerissenheit. Das ist eine der Lektionen, die wir vom radikalen Konstruktivismus lernen können. Denn der Konstruktivist umschifft mit der Wendigkeit des Ganoven das Gesetz mittels der Gesetzeslücke und die Gesetzeslücke mittels des Gesetzes. Sein Credo ist: Was wir als Wirklichkeit wahrnehmen, ist unsere Erfindung. Als wäre er mit einem geheimnisvollen Detektor begabt, gelingt es Heinz von Foerster, wo immer die Welt mit Brettern vernagelt ist, eine jener paradoxen Lücken aufzufinden, die jede Ordnung immer wieder selbst erzeugt.
- Content
- Wie Sie wissen /Ich brauche vielleicht eine Minute Einführung in die natürliche Magie. Tonbandkorrespondenz mit Paul Schroeder Ethik und Kybernetik zweiter Ordnung. Vortrag Kybernetik der Kybernetik. Vortrag Meine eigene Geschichte ist anders verlaufen. Interview Zirkulare Kausalität. Die Anfänge einer Epistemologie der Verantwortung Wissenschaft des Unwißbaren Kompetenz und Verantwortung. Vortrag Warum sind Computer musikalisch? Interview Anmerkungen
-
Sixtus, M.: Verirrter Wegweiser : Die Suchmaschine Google findet nicht immer die korrekte Richtung - wie ein ungewöhnlicher Wettbewerb zeigt (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3430) [ClassicSimilarity], result of:
0.030131513 = score(doc=3430,freq=24.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3430, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3430)
0.25 = coord(1/4)
- Content
- Kennen Sie "Nigritude Ultramarine"? Nein? Fragen Sie doch Anil Dash. Oder vielleicht Google - aber dann könnten-Sie ebenfalls bei Dash landen. Der Internetautor ist Sieger eines ungewöhnlichen Wettbewerbs der Online-Werbefirma Darkblue: Einen Monat lang sollten Webseitenmacher Google veräppeln - und dafür sorgen, dass ihre Seite oben steht, wenn Surfer nach dem Phantasiebegriff suchen. Fast eine halbe Million Seiten stehen nun in der Ergebnisliste. Das stärkt Kritiker, die schon lange warnen, Google sei manipulierbar. Zugleich sammelt mit Yahoo und Microsoft die Konkurrenz ihre Kräfte. Die Lage für den Marktführer wird schwieriger - und das just in der Zeit, in der Google an die Börse strebt. Fachleute spekulieren, das Unternehmen wolle noch in diesem Monat seine Aktien über eine Internet-Auktion verkaufen. Die Stärke wird zur Schwäche Googles "Nigritude Ultramarine"-Schwäche ist die Folge einer eigentlichen Stärke: Die Suchmaschine merkt sich die Inhalte von Webseiten - und sie bewertet darüber hinaus deren Wichtigkeit. Als Maßstab prüft sie, wie viele andere Seiten auf die gefundene Adresse verweisen. Die Logik dahinter: Nennen viele Webautoren eine bestimmte Seite, muss sie interessanter sein als andere mit ähnlichem Inhalt. Google schaut zudem nach, mit welchen Begriffen Surfer auf weitere Angebote verwiesen werden - diese Link-Texte sind besonders wichtig für die Bewertung der Zielseiten. Politische Aktivisten nutzen das manchmal aus. Sie sorgen etwa dafür, dass bei einer Suche nach "miserable failure" ("klägliches Versagen") die Biografie von US-Präsident George W. Bush die Ergebnisliste anführt. Auch konservative Internetkenner arbeiten mit dem Trick: Eine Recherche nach "Waffles" (Geschwafel) führt zum Herausforderer John Kerry. Wesentlich ärgerlicher als solche Politik-spielereien sind' die Machenschaften vieler so genannter Search Engines Optimizers, kurz SEO. Der boomende Wirtschaftszweig lebt davon, die Webangebote der Kunden auf Trefferlisten möglichst weit nach oben zu bugsieren. Webmaster aus der Pornobranche nehmen die Grauzonen-Dienstleistungen gerne in Anspruch. Auch professionelle Ebay-Händler und Partner des Webkaufhauses Amazon arbeiten mit Tricks, um ihre Adressen mit allen nur erdenklichen Suchanfragen zu verknüpfen. Die neueste Masche: Die SEO-Branche lässt eine Software auf das Internet los, die automatisiert und massenweise Kommentare schreibt. Die austauschbaren Stellungnahmen der Güteklasse "coole Website" oder "interessanter Text" enthalten einen Verweis zu der Seite, für die geworben werden soll. Das Kalkül dabei: Google findet die Einträge und erhöht die Bewertung der verlinkten Seite. "In einer Nacht sammelten sich Hunderte der Kommentar-Spams in meinem Weblog an", stöhnt der Düsseldorfer Blogger Siggi Becker, "allesamt führten sie zu Porno-Websites des untersten Niveaus." Ihn ärgert der Arbeitsaufwand, um die Roboter-Hinterlassenschaften zu löschen. Und er fügt hinzu: "Man fühlt sich ein wenig beschmutzt."
- Eine Chance für die Konkurrenz - Des einen Dilemma könnte des anderen Chance sein: Schon seit Monaten arbeitet der Software-Riese Microsoft an einer eigenen Suchmaschinen-Technik, um Google Marktanteile abzujagen. Vor wenigen Tagen ging eine Vorabversion der neuen MSN-Suche online. Die Startseite präsentiert sich schlicht und aufgeräumt, auch der Index wirkt aktuell. An der Relevanzbewertung scheint der Redmonder Konzern jedoch noch zu arbeiten. Eine Testsuche nach "Quitten" lieferte als ersten Treffer das Profil eines russischen Nutzers der Tagebuchschreiber-Gemeinschaft Live Journal, während die gleiche Anfrage bei Google zur Website Quitten -fast vergessene Köstlichkeiten der WDR-Sendung Hobbythek führte. Zweifellos die bessere Wahl. Einen Schritt weiter als Microsoft ist der Portalanbieter Yahoo. Bereits seit Februar indiziert er mit einer selbst entwickelten Technik das Netz. Die Qualität der Ergebnisse kann mit dem Marktführer durchaus konkurrieren, wie Fachleute bestätigen. Kein Wunder: Der Algorithmus orientiert sich an der Seitenbewertungstechnik des großen Vorbilds. Auch von grafisch beladenen Seiten nimmt Yahoo wohl Abschied - die neue Abfragemaske wirkt für YahooVerhältnisse geradezu spartanisch. Einen anderen Ansatz, die Recherche im Web zu vereinfachen, probiert das deutsche Portal Web.de. Das "Smart Search" genannte Verfahren blendet neben der Ergebnisliste einen Themenbaum ein, der helfen soll, die Treffer' einzuordnen. Die Anfrage "Koch" liefert beispielsweise die Ergänzungsvorschläge "Kochbuch" und "Rezepte`; aber auch "Robert Koch". Ein "Ministerpräsident" wurde jedoch nicht angeboten, und Begriffe wie "moved" (verschoben) oder "offers" (Angebote) dürften bei der Suche kaum weiterhelfen. Auch fällt die mangelnde Aktualität des Datenbestands negativ auf, den das Karlsruher Unternehmen vom Zulieferer Inktomi bezieht. Sollte die Konkurrenz von Google wieder stärker werden, könnte das möglicherweise auch den Deutschen Bundestag ein wenig beruhigen. Der Unterausschuss des Parlaments für Neue Medien sorgt sich um den Suchmaschinenmarkt. Um Monopolbildungen und Manipulationen vorzubeugen, sinnierte man in Berlin über die Notwendigkeit einer "öffentlich-rechtlichen" Suchmaschine. Besonders die Grünen befürchten eine mögliche Einschränkung des Rechts auf Informationsfreiheit, sollten nur wenige Unternehmen die Recherchen im Internet anbieten."
-
Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3482) [ClassicSimilarity], result of:
0.030131513 = score(doc=3482,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3482, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3482)
0.25 = coord(1/4)
- Abstract
- Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
-
Hegner, M.: Methode zur Evaluation von Software (2003)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3499) [ClassicSimilarity], result of:
0.030131513 = score(doc=3499,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3499, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3499)
0.25 = coord(1/4)
- Abstract
- Der Arbeitsbericht befasst sich mit den zwei unterschiedlichen Usability Methoden, dem Usability Test und den Usability Inspektionsmethoden. Bei den Usability Inspektionsmethoden wird die Benutzungsschnittstelle durch Ergonomieexperten evaluiert. Diese Methoden umfassen die Heuristische Evaluation, standard inspection und cognitive walkthrough, etc. Der Vorteil dieser Inspektionsmethoden liegt darin, dass sie weniger zeitintensiv und kostengünstiger als ein Usability Test sind. Der Usability Test wird im Gegensatz zu den Usability Inspektionsmethoden mit repräsentativen Versuchspersonen durchgeführt. Er ist ein effizientes Mittel um Benutzungsschnittstellen zu evaluieren oder auf deren Benutzungsfreundlichkeit zu überprüfen. Des weiteren erläutert der Arbeitsbericht die verschiedenen Usability Testmethoden sowie die Basiselemente zur Durchführung eines Usability Tests. Abschließend wird noch auf die Varianzanalyse (Analysis of Variance, ANOVA) als ein statistisches Verfahren zur Überprüfung von Mittelwertsunterschieden näher eingegangen.
-
Schubert, F.: Bin ich das? (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3862) [ClassicSimilarity], result of:
0.030131513 = score(doc=3862,freq=24.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3862, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3862)
0.25 = coord(1/4)
- Abstract
- Unsere Selbstwahrnehmung lässt sich leicht in die Irre führen. Schon ein kleines Täuschungsmanöver genügt, und man hält einen künstlichen Arm für den eigenen.
- Content
- "Haben Sie sich schon einmal Ihre Hände angeschaut und sich gefragt, ob das wirklich Ihre sind? Nein? Sie halten Zweifel daran für abwegig? Dann sollten Ihnen jüngste Versuche britischer Forscher zu denken geben. Sie belegen, dass Menschen ihre eigenen Gliedmaßen ganz leicht mit künstlichen verwechseln können: Eine bescheidene kleine List reicht aus, und schon hält das Gehirn einen Gummi-Arm für einen eigenen Körperteil - und das, obwohl die echte Extremität noch heil und in voller Größe an der Schulter sitzt (Science, 6.8.2004, S.875). Forscher um Henrik H. Ehrsson vom Institut für Neurologie in London führten ihre Experimente an je neun Männern und Frauen aus. Sie ließen die Probanden auf einer Liege Platz nehmen und den rechten Arm locker ausgestreckt auf ein Stützkissen legen. Unmittelbar darüber platzierten sie eine leicht geneigte Tischplatte. Dadurch konnten die Versuchsteilnehmer ihren Arm nicht mehr sehen. Die Platte war mit demselben Material wie das Stützkissen überzogen. Nun holten die Wissenschaftler die Gummi-Attrappe eines rechten Unterarms hervor, die dem natürlichen Vorbild täuschend ähnlich sah. Sie wurde in derselben Orientierung wie der echte Arm auf die Tischplatte gelegt. Auf ih rem hinteren Ende lag locker ein Tuch, das bis zur Schulter reichte (Bild). Das allein genügte allerdings noch nicht, das Gehirn zum Narren zu halten; ein weiteres, subtiles Täuschungsmanö ver musste hinzukommen. Dazu strich der Experimentator mit zwei Pinseln simultan über beide Arme, den falschen und den echten. Natürlich konnte die Versuchsperson nur beobachten, wie die Attrappe gestreichelt wurde - was mit der echten Extremität geschah, lag außerhalb ihres Sichtfelds. Wohl aber spürte sie die Pinselhaare auf der Haut. Das verfehlte seine Wirkung nicht: Nach kurzer Zeit hatten die Probanden, obwohl sie es besser wussten, das unabweisliche Gefühl, der Gummi-Arm sei Teil ihres Körpers. Sie meldeten das Auftreten dieser verwirrenden Empfindung, indem sie mit dem Fuß auf einen Knopf drückten. Der falsche Eindruck war so stark, dass die Versuchsteilnehmer sogar spontan zur Attrappe wiesen, wenn die Forscher sie aufforderten, mit der freien Hand auf den eigenen Arm zu deuten.
Wie kommt es zu dieser erstaunlichen Sinnestäuschung? Um das herauszufinden, beobachteten Ehrsson und seine Kollegen während des Experiments zugleich die Gehirne der Probanden, indem sie die Liege in die Röhre eines Magnetresonanztomografen schoben. Dabei zeigte sich, dass mit dem Einsetzen der trügerischen Empfindung die Hirnaktivität im so genannten prämotorischen Kortex, einer Region im vorderen Bereich der Großhirnrinde, stark anstieg. Offenbar spielt diese Region eine Schlüsselrolle bei der physischen Selbstwahrnehmung. Dafür spricht nach Ansicht der Wissenschaftler auch, dass der prämotorische Kortex sowohl mit Hirnbereichen verbunden ist, die visuelle Informationen verarbeiten, als auch mit solchen, die auf Berührungsreize ansprechen. Demnach scheint er die Daten mehrerer Sinne zusammenzusetzen. In dem beschriebenen Versuch erwuchs so aus der Verbindung von visueller und taktiler Information der fälschliche Gesamteindruck »Das ist meine Hand«. - Irrtum trotz Absicherung - Zu dieser Deutung passt, dass die Aktivität im prämotorischen Kortex umso höher war, je intensiver die Sinnestäuschung bei den Versuchsteilnehmern ausfiel. Wenn die Forscher den GummiArm schief auf die Tischplatte legten oder die Pinsel nicht exakt synchron bewegten, waren Fehlempfindung und Aktivitätszunahme in der betreffenden Hirnregion nur schwach ausgeprägt. Die neuen Erkenntnisse darüber, wie leicht das Gehirn sich bei der Selbstwahrnehmung übertölpeln lässt, haben durchaus auch praktische Bedeutung. Sie könnten bei der Behandlung von Patienten helfen, die Probleme mit der Unterscheidung zwischen dem eigenen Ich und der Außenwelt haben, weil sie etwa unter Schizophrenie leiden oder ihr prämotorischer Kortex durch einen Schlaganfall geschädigt wurde. Vor allem aber liefern sie neue Aufschlüsse über die Arbeitsweise des Gehirns. Demnach verlässt sich unser Denkorgan bei der Selbstwahrnehmung nicht nur auf einen einzelnen Sinn, sondern integriert vielerlei Informationen. Trotzdem ist es nicht gegen Irrtum gefeit. Wundern Sie sich also nicht, sollten Sie im dichten Einkaufsgewühl das Bein Ihres Nachbarn versehentlich für das eigene halten."
-
Gerl, B.: Displays von der Rolle (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3863) [ClassicSimilarity], result of:
0.030131513 = score(doc=3863,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3863, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3863)
0.25 = coord(1/4)
- Content
- "Es scheint grotesk: Da hat man sich für teures Geld einen Beamer geleistet, um Heimkino auf der Höhe der Zeit zu erleben oder Kunden Geschäftsideen nahe zu bringen, doch ein Teil der Technik stammt noch aus der Stummfilmzeit: die Projektionsleinwand. Einen wirklichen Ersatz gibt es nicht, denn Monitore, ob ein Plasma-, LED- oder Kathodenstrahlbildschirm, bieten kein so großes Format und sind nicht flexibel zu verstauen. Doch das wird sich ändern, sobald OLEDs (organic light emitting Biodes) die in sie gesetzten Erwartungen erfüllen. Und das ist nicht wenig: OLED-Displays sollen heller sein als die von Laptops her bekannten Flachbildschirme und dabei noch weniger Energie verbrauchen. Denn deren Bildpunkte (Pixel) basieren auf Flüssigkristallen (liquid crystal display, LCD), die so angesteuert werden, dass sie das Licht einer Hintergrundbeleuchtung sperren oder nach vorne durchlassen. Deshalb sieht der Betrachter auch nur dann ein helles Bild, wenn er direkt vor dem LCD-Schirm sitzt. OLEDs aber leuchten selbst, strahlen also hell in alle Richtungen."
-
Gartner, B.: dú ér míng! (Lies dich schlau!) (2006)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3869) [ClassicSimilarity], result of:
0.030131513 = score(doc=3869,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3869, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3869)
0.25 = coord(1/4)
- Abstract
- Die Chinesen erobern die Welt. Nur ihre Sprache ist alles andere als ein Exportschlager. Wissenschaftler untersuchen, wie Augen und Gehirn auf den Anblick chinesischer Schriftzeichen reagieren. Dabei haben sie herausgefunden: Wer Chinesisch liest, wird klüger.
- Content
- Am Anfang war das Publikum rar: Als Michael E. Everson, Professor für Fremdsprachendidaktik an der University of Iowa, 1986 bei einer Tagung zum ersten Mal über die Schwierigkeiten der chinesischen Schrift sprach, kamen acht Zuhörer- zwei davon waren seine Mutter und seine Schwester. Heute, 20 Jahre später, muss die Familie nicht mehr als Lückenbüßer herhalten. An der weltweit ersten Konferenz zum Thema "Wie jemand aus dem Westen die Welt der chinesischen Schrift entdeckt", die Ende August 2005 in Germersheim stattfand, nahmen - neben Michael E. Everson - über 80 Personen teil. Kognitionspsychologen aus Deutschland trafen sich mit Fremdsprachen-Forschern aus den USA und Neurolinguisten aus China. Ihr Ziel ist es, Methoden zu entwickeln, mit denen sich die Fremdsprache Chinesisch leichter lernen lässt.
-
Svensson, L.G.: Sacherschließung als Basis für intelligente Navigation ausgehend von der DDC : Konzepte - Realisierung - Visionen (2004)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 3876) [ClassicSimilarity], result of:
0.030131513 = score(doc=3876,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 3876, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3876)
0.25 = coord(1/4)
- Abstract
- Über die Heterogenität der Sacherschließung in der deutschen Bibliothekslandschaft ist schon viel berichtet und geschrieben worden. Im Folgenden wird dargestellt, wie eine Suchumgebung ausgehend von der DDC aufgebaut werden kann und wie diese auf andere Erschließungssysteme erweitert werden kann. ... Fazit: Navigation ausgehend von der DDC Als das weltweit am meisten benutzte Klassifikationssystem hat die DDC ein erhebliches Potential, sich als Switching Language für sprachunabhängige Dokumentenrecherche zu positionieren. Allerdings ist eine verbale Suche für viele Benutzer deutlich intuitiver, so dass der Umstieg auf rein hierarchisches Browsing - wie es die DDC erlauben würde - nicht sinnvoll erscheint. Angesichts der großen Zahl an vorhandenen, mit SWD erschlossenen Daten wäre eine solche Vorgehensweise unsinnig. Vielmehr müssen die Bestrebungen darauf konzentriert werden, das Nebeneinander der verschiedenen Erschließungsmethoden auf der Ebene der Suchmaschinen zusammen zu führen. Für die wissenschaftliche Literaturrecherche birgt die Möglichkeit zur verteilten Suche über heterogen erschlossene Daten ein großes Potential. Die obigen Überlegungen stellen die Vorgehensweise dar, wie dies im Projekt DDC Deutsch verfolgt und realisiert wird.
-
kro: Nüchterne Analyse nach dem Internet-Rausch : Buchhandels-Verband (2002)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 4109) [ClassicSimilarity], result of:
0.030131513 = score(doc=4109,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 4109, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4109)
0.25 = coord(1/4)
- Content
- "Nach dem schlechten Abschneiden deutscher Schüler in der Bildungsstudie Pisa setzt sich der Börsenvereinsvorsitzende des Deutschen Buchhandels, Dieter Schormann, für einen "Runden Tisch" auf Bundesebene mit den Länder-Kultusministern ein. Teilnehmen sollten daran auch Vertreter aus der Wirtschaft, Buchhändler, Verleger, Pädagogen und Bibliothekare, sagte der Gießener Buchhändler. Schormann: "Der Runde Tisch soll Signale setzen. Wir brauchen ein breites gesellschaftliches Bewusstsein für die Bedrohung der Zukunft durch das Bildungsdefizit." Hier seien besonders Politik und Wirtschaft gefordert. Nach der Veröffentlichung der Pisa-Studie hätten gerade Wirtschaftskreise zu viele "Prügel" verteilt. Auch die Unternehmen ständen in der Pflicht, über neue Bildungskonzepte nachzudenken. Laut Pisa-Studie können mehr als ein Fünftel der deutschen Schüler Texte nicht mehr richtig lesen und verstehen. Im "Rausch der Entwicklung rund ums Internet" hätten viele Verantwortliche die "Bodenhaftung" verloren, nannte Schormann dafür als einen Grund. Bücher würden im Schulunterricht inzwischen vielfach durch das Internet ersetzt. Das sei falsch. Schormann: "Alle sagen, Schulen müssen ans Netz. Was bringt das, wenn die Lesekompetenz nicht mehr vorhanden ist, um die neuen Medien zu nutzen?" Viele Kinder würden zudem die Lust am Lesen verlieren, weil die im Unterricht verwendeten Bücher oft veraltet seien"
-
Die Deutsche Bibliothek erweitert Erschließung (2005)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 4360) [ClassicSimilarity], result of:
0.030131513 = score(doc=4360,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 4360, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4360)
0.25 = coord(1/4)
- Content
- "Die Deutsche Bibliothek beginnt mit Bibligrafiejahrgang 2006 mit der Vergabe von DDC-Notationen. In einem Workshop wurde in Frankfurt zum Abschluss des DFG-Projektes DDC Deutsch das Konzept zur Erschließung mit RSWK-SWD und mit der Dewey-Dezimalklassifikation (DDC) vorgestellt. Für die Reihe A (Buchhandelsveröffentlichungen) wird die Erschließung mit RSWK-SWD ab Bibliografiejahrgang 2007 durch DDC-Notationen ergänzt. Die Reihen B (Nicht-Buchhandelsveröffentlichungen) und H (Hochschulschriften) werden bereits ab dem Bibliografiejahrgang 2006 durchgängig mit DDC-Notationen erschlossen. Die Deutsche Bibliothek hat zusammen mit der Fachhochschule Köln und der Universitätsbibliothek Regensburg das von der Deutschen Forschungsgemeinschaft geförderte Projekt DDC-Deutsch durchgeführt. Die deutsche Ausgabe der DDC 22 erscheint Ende 2005. Die Deutsche Bibliothek bietet zusätzlich ab Januar 2006 einen DDC-Web-Service an, der neben einer deutschen Version des amerikanischen WebDewey für das Klassifizieren mit DDC auch ein Retrievaltool enthält, das erstmalig die verbale Recherche nach DDC-erschlossenen Titeln ermöglicht."
-
Die Deutsche Bibliothek erweitert Erschließung durch Vergabe von DDC-Notationen (2005)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 4477) [ClassicSimilarity], result of:
0.030131513 = score(doc=4477,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 4477, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4477)
0.25 = coord(1/4)
- Content
- "Die Deutsche Bibliothek beginnt mit Bibligrafiejahrgang 2006 mit der Vergabe von DDC-Notationen. In einem Workshop wurde in Frankfurt zum Abschluss des DFG-Projektes DDC Deutsch das Konzept zur Erschließung mit RSWK-SWD und mit der Dewey-Dezimalklassifikation (DDC) vorgestellt. Für die Reihe A (Buchhandelsveröffentlichungen) wird die Erschließung mit RSWK-SWD ab Bibliografiejahrgang 2007 durch DDC-Notationen ergänzt. Die Reihen B (Nicht-Buchhandelsveröffentlichungen) und H (Hochschulschriften) werden bereits ab dem Bibliografiejahrgang 2006 durchgängig mit DDC-Notationen erschlossen. Die Deutsche Bibliothek hat zusammen mit der Fachhochschule Köln und der Universitätsbibliothek Regensburg das von der Deutschen Forschungsgemeinschaft geförderte Projekt DDC-Deutsch durchgeführt. Die deutsche Ausgabe der DDC 22 erscheint Ende 2005. Die Deutsche Bibliothek bietet zusätzlich ab Januar 2006 einen DDC-Web-Service an, der neben einer deutschen Version des amerikanischen WebDewey für das Klassifizieren mit DDC auch ein Retrievaltool enthält, das erstmalig die verbale Recherche nach DDC-erschlossenen Titeln ermöglicht."
-
Patzwaldt, K.: Suchmaschinenlandschaften (2005)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 4493) [ClassicSimilarity], result of:
0.030131513 = score(doc=4493,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 4493, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4493)
0.25 = coord(1/4)
- Abstract
- Wer spontan nach Namen von Suchmaschinen fragt, bekommt außer Google und Yahoo! meist nur noch wenige andere Anbieter genannt. Am mangelnden Angebot kann dies nicht liegen, denn Anfang 2005 existierten laut klug-suchen.de allein 1.600 meist deutschsprachige durchsuchbare Datenbestände. Das Portal Sucharchiv.com verzeichnete rund 4.700 Suchmaschinen, Archive und Portale zum Auffinden von Informationen im Internet. Diese Vielfalt mag signalisieren: Suchmaschinen gehören zum Internet wie das Salz zur Suppe; doch ist ihr Verhältnis untereinander nicht ganz unproblematisch: Suchmaschinen sind zwar fast so alt wie das World Wide Web selbst, doch können sie bisher mit seiner rasanten Entwicklung nicht mithalten. Lange Zeit wurden multimediale Inhalte von wichtigen Suchmaschinen nicht beachtet. Es wurden ausschließlich Texte indexiert. Und selbst wenn heute multimediale Inhalte erfasst werden, gelangen diese lediglich in Textform in den Index der Suchmaschinen. Verglichen mit der menschlichen Entwicklung können wir also von einer embryonalen Phase sprechen, in der sich die Suchmaschinen befinden.
-
Schulzki-Haddouti, C.: Bürgerrechte im Netz : Zwischen Informationsfreiheit und Datenschutz (2005)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 4496) [ClassicSimilarity], result of:
0.030131513 = score(doc=4496,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 4496, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4496)
0.25 = coord(1/4)
- Abstract
- Demokratie kann nur auf der Basis eines ausgewogenen Spiels der Kräfte funktionieren. Öffentlichkeit ist hierbei ein ausgezeichnetes Mittel, dieses Spiel am Laufen zu halten. Medien, die Öffentlichkeit herstellen, werden deshalb sogar als »vierte Macht« bezeichnet. Sie werden dann zur Macht, wenn sie nicht nur als Vermittler der öffentlichen Meinung auftreten, sondern durch ihr Agieren selbst Gesellschaft gestalten. Hauptaufgabe der Medien ist es, eine Öffentlichkeit durch Transparenz herzustellen. Je mehr relevante Informationen Bürger erhalten, desto eher sind sie in der Lage, sich eine Meinung zu bilden. In den USA wird das Recht der Bürger auf Information umschrieben mit dem »Recht der Öffentlichkeit, zu wissen«, »the public's right to know«. Informationsfreiheit ermöglicht Bürgern, sich zu informieren, sich zu bilden und mündig Entscheidungen zu treffen. Die Medien stehen damit im Dienste des öffentlichen Interesses auf Wissen und Bildung.