-
Neller, M.: Geburt eines Kritikers : Wie Kunden zu Rezensenten werden (2005)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 4515) [ClassicSimilarity], result of:
0.020087674 = score(doc=4515,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 4515, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4515)
0.25 = coord(1/4)
- Abstract
- Von diesem Kritiker weiß man, er mag Fontane, Brecht, erotische Literatur. Man weiß, wie er sich erregt, schimpft und gestikuliert, wenn er ein Buch bespricht, das ihm missfällt. Marcel Reich-Ranicki ist als Rezensent eine Marke. Dagegen ist »Propeller Marketingdesign« alias »fuchs170« unbekannt, obwohl er im deutschsprachigen Internet das ist, was ReichRanicki im deutschen Fernsehen war: oberste Kritikerinstanz. 597 Rezensionen hat »fuchs170« bei Amazon im Netz veröffentlich. Eine sehr beachtliche Zahl, die ihn allein aber nicht zum »Top 1Rezensenten« des Online-Buchhändlers Amazon gemacht hätte. Der drittplazierte Kritiker, der unter der Identität »Martin Oehri« firmiert, hat 1.275 Beiträge verfasst. »fuchs170« hat schlicht mehr Leser überzeugt: 4.251 befanden, seine Rezensionen seien eine nützliche Kaufempfehlung gewesen. Bei »Martin Oehri« waren es 800 weniger. Geht man einmal davon aus, dass die Stimmen nicht manipuliert sind, dann kann man sagen: »fuchs 170« wurde gewählt. Ein Kritiker, der nur vom lesenden Publikum zur Institution erhoben wird. Man hört die Jubelschreie: Das Aus für den Kunstrichter, der vom Elfenbeinturm aus lobt oder vernichtet! In jedem Fall lohnt es, sich zu fragen, ob »fuchs170«, »frizztext« und all die anderen rezensierenden Amazon-Kunden die klassische Literaturkritik demokratisieren. Immerhin ersetzen Kundenrezensionen im Internet allmählich die Buchbesprechung im herkömmlichen Sinn. Die meisten Literaturmagazine im Netz sind in den vergangenen drei, vier Jahren ähnlich schnell verschwunden, wie sie aufgetaucht waren. Den berufsmäßigen Literaturkritiker gibt es im Web zwar noch, sein Publikum aber wird immer überschaubarer - auch, weil der Zugriff auf elektronische Archive der Printmedien im Netz inzwischen meist Geld kostet. Dieses sich leerende Forum füllt Amazon, der Branchenführer unter den Online-Buchhändlern. Er animiert seine Kunden, sich als Kritiker zu versuchen - und stellt sie auf den virtuellen Marktplatz, dorthin, wo das Geld verdient wird.
-
Dewald, U.: Aus den Augen, aber nicht aus dem Sinn : Auch ohne funktionierendes Sehzentrum kann das Gehirn visuelle Informationen aufnehmen (2005)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 5369) [ClassicSimilarity], result of:
0.020087674 = score(doc=5369,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 5369, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5369)
0.25 = coord(1/4)
- Content
- "Immer wieder wird von Patienten mit schweren Schäden des Sehzentrums im Gehirn berichtet, in der Lage sind, die Form oder die Position von Gegenständen ungefähr zu erfassen, obwohl sie bewusst gar nichts mehr sehen können. Diesen Effekt konnten die Forscher nun in ihren Tests mit elf Probanden bestätigen. Die Wissenschaftler legten dazu den visuellen Kortex für wenige hundertstel Sekunden mit der so genannten transkraniellen Magnetstimulation (TMS) lahm. Dabei induziert ein starkes magnetisches Feld elektrische Ströme in den Nervenbahnen, so dass die Hirnregion kurzzeitig ihre Funktion nicht mehr erfüllen kann. Gleichzeitig zeigten die Wissenschaftler den Probanden auf einem Monitor wenige tausendstel Sekunden lang entweder grüne oder rote Punkte oder eine horizontale oder vertikale Linie. Alle Probanden gaben anschließend an, nichts gesehen zu haben. Da ihr Sehzentrum blockiert war, konnten sie die Punkte oder Linien zwar mit den Augen aufnehmen, jedoch nicht bewusst wahrnehmen. Als die Forscher sie jedoch aufforderten, die Farbe der Punkte oder die Ausrichtung der Linien zu erraten, lagen die Probanden dennoch meistens richtig: In 75 Prozent der Fälle errieten sie die Lage der Linien, und bei der Farbe der Punkte lag die Trefferquote sogar bei mehr als 80 Prozent. Auch wenn der visuelle Kortex blockiert war, wurden die Informationen dennoch auf unbewusste Weise vom Gehirn erfasst, erläutert Tony Ro die Ergebnisse. Auf weichen Wegen diese auch ohne die Mitarbeit des Sehzentrums in höhere Hirnregionen gelangen, können die Forscher jedoch noch nicht erklären. Die Beobachtungen werfen ein neues Licht auf die Frage, wo und auf welche Weise im Gehirn Bewusstsein entsteht und weiche Bedeutung der immer wieder kontrovers diskutierten unbewussten Wahrnehmung zukommt."
-
Marcus, S.: Textvergleich mit mehreren Mustern (2005)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 987) [ClassicSimilarity], result of:
0.020087674 = score(doc=987,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 987, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=987)
0.25 = coord(1/4)
- Abstract
- Das Gebiet des Pattern-Matching besitzt in vielen wissenschaftlichen Bereichen eine hohe Relevanz. Aufgrund unterschiedlicher Einsatzgebiete sind auch Umsetzung und Anwendung des Pattern-Matching sehr verschieden. Die allen Anwendungen des Pattern-Matching inhärente Aufgabe besteht darin, in einer Vielzahl von Eingabedaten bestimmte Muster wieder zu erkennen. Dies ist auch der deutschen Bezeichnung Mustererkennung zu entnehmen. In der Medizin findet Pattern-Matching zum Beispiel bei der Untersuchung von Chromosomensträngen auf bestimmte Folgen von Chromosomen Verwendung. Auf dem Gebiet der Bildverarbeitung können mit Hilfe des Pattern-Matching ganze Bilder verglichen oder einzelne Bildpunkte betrachtet werden, die durch ein Muster identifizierbar sind. Ein weiteres Einsatzgebiet des Pattern-Matching ist das Information-Retrieval, bei dem in gespeicherten Daten nach relevanten Informationen gesucht wird. Die Relevanz der zu suchenden Daten wird auch hier anhand eines Musters, zum Beispiel einem bestimmten Schlagwort, beurteilt. Ein vergleichbares Verfahren findet auch im Internet Anwendung. Internet-Benutzer, die mittels einer Suchmaschine nach bedeutsamen Informationen suchen, erhalten diese durch den Einsatz eines Pattern-Matching-Automaten. Die in diesem Zusammenhang an den Pattern-Matching-Automaten gestellten Anforderungen variieren mit der Suchanfrage, die an eine Suchmaschine gestellt wird. Eine solche Suchanfrage kann im einfachsten Fall aus genau einem Schlüsselwort bestehen. Im komplexeren Fall enthält die Anfrage mehrere Schlüsselwörter. Dabei muss für eine erfolgreiche Suche eine Konkatenation der in der Anfrage enthaltenen Wörter erfolgen. Zu Beginn dieser Arbeit wird in Kapitel 2 eine umfassende Einführung in die Thematik des Textvergleichs gegeben, wobei die Definition einiger grundlegender Begriffe vorgenommen wird. Anschließend werden in Kapitel 3 Verfahren zum Textvergleich mit mehreren Mustern vorgestellt. Dabei wird zunächst ein einfaches Vorgehen erläutert, um einen Einsteig in das Thema des Textvergleichs mit mehreren Mustern zu erleichtern. Danach wird eine komplexe Methode des Textvergleichs vorgestellt und anhand von Beispielen verdeutlicht.
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/SandraMarcus.pdf
-
Kleinz, T.: Konkurrenz für Wikipedia : Google bastelt an Wissensportal - Autoren sollen Anteile an Werbeeinnahmen erhalten (2007)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 1758) [ClassicSimilarity], result of:
0.020087674 = score(doc=1758,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 1758, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1758)
0.25 = coord(1/4)
- Content
- "Mit der Ankündigung einer Wissensplattform hat der Suchmaschinen-Konzern Google für reichlich Aufregung in der Internet-Szene gesorgt. Wikipedia-Gründer Jimmy Wales gibt sich betont gelassen. Das Projekt heißt Knol - die Kurzform für "Knowledge", zu Deutsch: Wissen. Noch sind nicht viele Informationen bekannt. Die Ankündigung beschränkt sich auf einem kurzen Beitrag des Google-Managers Udi Manber im Firmen-Weblog. Manber beschreibt die Mission so: "Wir glauben, dass viele Menschen ihr Wissen nicht teilen, weil es heute immer noch nicht einfach genug ist, das zu tun". Mit Knol sollen die Google-Nutzer Gelegenheit bekommen, Artikel zu beliebigen Themen zu verfassen und direkt online zu stellen. Eigentlich eine Kriegserklärung an Wikipedia, denn das Projekt hat eben den Anspruch, das Teilen von Wissen möglichst einfach zu machen." In Interviews demonstriert Wikipedia-Gründer Jimmy Wales Gelassenheit. "Google macht eine Menge toller Sachen, aber diese Sachen funktionieren nicht immer." Damit hat der 41-Jährige durchaus recht: So stellte Google vor einem Jahr seine Wissens-Plattform "Google Answers" ein, da sich nicht genug Nutzer für das Angebot interessiert hatten. Auch bei sozialen Netzwerken sind die Kalifornier im Hintertreffen. Ihr frühzeitig gestartetes Projekt Orkut liegt in Europa und Amerika weit abgeschlagen hinter Konkurrenten wie MySpace, Facebook oder StudiVZ.
Das neue Projekt hat jedoch mehr Potenzial. Zwar will Google die Autoren der Knol-Artikel nicht direkt bezahlen, dafür werden sie aber an den Werbe-Erlösen der Plattform beteiligt. Wer einen besonders gefragten Artikel schreibt, kann Monat für Monat mit entsprechenden Einnahmen rechnen. Anders als bei Wikipedia sollen die Artikel keine Gemeinschaftsarbeit sein. Zwar kann jeder Nutzer Verbesserungsvorschläge machen und Artikel bewerten, für die Texte ist aber immer nur ein Autor verantwortlich. Zu einem bestimmten Thema können mehrere Autoren mit ihren Texten konkurrieren. Spannend ist auch die Verknüpfung mit der Suchplattform, dem Kern-Geschäft von Google. So sollen Knol-Artikel direkt in die Suchergebnis-Listen der Kalifornier einfließen. Für die Autoren bedeutet dies eine hohe Reputation, wenn ihr Artikel bei der Internet-Suche ganz oben steht. Für die Google-Ingenieure bietet die Integration andere Vorteile: Anhand der Knol-Texte könnten sie die Qualität der Suchergebnisse insgesamt verbessern. Wird ein Knol-Artikel von den Nutzern gut bewertet, kann Google daraus schließen, welche Suchergebnisse besonders gefragt oder qualitativ hochwertig sind."
-
Schlosser, H.; Leppert, G.: ¬Die Kartoffel ist ein Fremdwort : Horst Schlosser lobt importierte Begriffe (2008)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.020087674 = score(doc=2418,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 2418, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2418)
0.25 = coord(1/4)
- Content
- "Herr Schlosser, das Goethe-Institut und der Deutsche Sprachrat haben einen Wettbewerb mit dem Titel "Das beste eingewanderte Wort" ausgeschrieben. Was ist Ihr persönlicher Favorit? Es gibt mehrere Wörter, die meiner Ansicht nach diese Auszeichnung verdient hätten. Zum Beispiel: Wein oder Kartoffel. Wein? Kartoffel? Wir dachten, Sie entscheiden sich für Outsourcing oder Assimilation. Für ein richtiges Fremdwort eben. Sehen Sie, das ist genau der Punkt. Wenn von Fremdwörtern die Rede ist, denkt jeder an solche Begriffe. Viele wissen gar nicht, dass Wein vom Lateinischen Vinum und Kartoffel vom italienischen Wort Taratopoholi stammt. Die meisten Menschen denken, das seien originär deutsche Wörter. Wir benutzen also weitaus mehr Fremdwörter, als wir glauben? Allerdings. Die deutsche Sprache hat einen Wortschatz von etwa 400 000 bis 500 000 Wörtern - was im Übrigen sehr viel ist. Rund 100 000 Begriffe sind aus anderen Sprachen eingewandert. Hilft der Wettbewerb, das Bewusstsein dafür zu stärken? Sicher, ich halte diesen Wettbewerb für eine gute Sache. Es ist wichtig zu verbreiten, dass eine Sprache nicht nur von sich selbst lebt, sondern auf Importe angewiesen ist. Natürlich droht bei solchen Sprachwettbewerben immer eine gewisse Beliebigkeit, und manch einer wählt nicht das Wort, sondern die Sache, die es beschreibt. Bei einem Wettbewerb zum schönsten Wort hätte Schokolade gute Chancen. Grundsätzlich aber macht so eine Aktion deutlich, dass die Übernahme von sprachlichen Elementen aus anderen Kulturen nichts Anrüchiges ist. Mit dieser Meinung machen Sie sich bei Menschen, die die deutsche Sprache möglichst frei von Fremdwörtern halten wollen, aber keine Freunde. Ja, deren Argumente kenne ich: Wir geben unsere Kultur - das ist im Übrigen auch ein Fremdwort - auf, wenn wir unsere Sprache aufgeben. Das ist Unsinn. Die Sprache geht nicht durch den Import von Wörtern unter, sonst wäre die deutsche Sprache seit 1200 Jahren tot. Damals hielten unendlich viele lateinische Begriffe in die deutsche Sprache Einzug. Sie sind also gegen die Eindeutschung von Fremdwörtern? Diese Initiativen haben häufig etwas Albernes. Da soll man dann Klapprechner statt Laptop sagen. Das halte ich für unsinnig. Im Übrigen ist die Idee, Fremdwörter zu übersetzen, alles andere als neu. Schon die Sprachgesellschaften im 17. Jahrhundert wollten das Wort Kloster durch Jungfernzwinger ersetzen. Hat sich nicht wirklich durchgesetzt. Sind alle derartigen Versuche gescheitert? Nein, das kann man nicht sagen. Statt Adresse sagen viele Menschen Anschrift, statt Korrespondenz ist das Wort Briefwechsel geläufig. Das ist auch sehr gut so, denn auch ich bin gegen einen unnötigen Gebrauch von Fremdwörtern. Ich finde nur, man sollte nichts dramatisieren. Es gibt durchaus Bereiche, in denen sich die besonders scharf kritisierten Anglizismen so gut wie gar nicht durchgesetzt haben. Können Sie ein Beispiel nennen? Im Rechtswesen etwa spielen die englischen Wörter so gut wie keine Rolle. Bemerkenswert ist übrigens auch, dass die Bild-Zeitung weitgehend auf Anglizismen verzichtet. Zu viel Englisch würde Leser kosten."
-
Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 3403) [ClassicSimilarity], result of:
0.020087674 = score(doc=3403,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 3403, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3403)
0.25 = coord(1/4)
- Content
- "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
-
Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002)
0.01
0.0050219186 = product of:
0.020087674 = sum of:
0.020087674 = weight(_text_:und in 731) [ClassicSimilarity], result of:
0.020087674 = score(doc=731,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16977254 = fieldWeight in 731, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=731)
0.25 = coord(1/4)
- Abstract
- Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
- Content
- Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
-
Röttgers, J.: ¬Eine rote Leiste verrät Datensammler : Ergänzungen im Webbrowser helfen Surfern, ihre Privatsphäre zu bewahren (2003)
0.00
0.0048624515 = product of:
0.019449806 = sum of:
0.019449806 = weight(_text_:und in 2245) [ClassicSimilarity], result of:
0.019449806 = score(doc=2245,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.16438155 = fieldWeight in 2245, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2245)
0.25 = coord(1/4)
- Content
- "Wer online unterwegs ist, hinterlässt Spuren. Webseiten merken sich, von welcher Netzadresse mit welchem Programm zugegriffen wird. Sie senden kleine Datenpakete auf die Rechner der Surfer; die Cookie genannten Dateien ermöglichen es, Besucher beim erneuten Zugriff auf eine Seite wiederzuerkennen. Viele Angebote erfordern zudem eine Registrierung, viele geben sich dabei ziemlich neugierig. Wie groß ist das monatliche Haushaltseinkommen? Was wurde in den vergangenen Wochen gekauft? Wie viele Stunden verbringt man im Netz? Was stellen Web-Anbieter mit all den Informationen an? Wer darauf eine Antwort will; .muss sich oft durch lange Datenschutzrichtlinien kämpfen, ohne hinterher viel schlauer zu sein. Eine Technik namens P3P soll den Konsumenten helfen. Web-Anbieter teilen damit Surfern in maschinenlesbarer Form mit, was sie mit ihren persönlichen Daten anstellen. Ausgewertet werden die Angaben beispielsweise von einem Webbrowser. Das Programm kann so entscheiden, ob und zu welchen Bedingungen es Daten mit der betreffenden Seite austauscht. Ein Browser könnte etwa Cookie-Dateien nur für die Dauer eines Zugriffs akzeptieren,' wenn das für personalisierte Dienste wie Webmail sinnvoll ist, oder den Benutzer davor warnen, dass der Anbieter E-Mail-Adressen an seine Werbekunden weitergibt. Offiziell eingeführt wurde P3P im April. Daher gibt es erst eine Hand voll Programme, die den Standard unterstützen. Das bekannteste ist Microsofts Internet Explorer in der sechsten Version. Der Browser nutzt P3P, um seinem Anwender größere Freiheiten im Umgang mit Cookie-Dateien zu geben. Nach Angaben der Universität Hannover verwenden 35 Prozent der deutschen Surfer die Software. Freilich dürften die wenigsten die P3P-Option kennen; sie arbeitet eher verborgen. AT&T Privacy Bird hat sich dagegen der öffentlichen Aufklärung verschrieben. Das kleine Programm klinkt sich in die Titelleiste des Webbrowsers ein und zeigt deutlich, ob der besuchten Seite in Sachen Datenschutz zu trauen ist: Genügt sie den eigenen Voreinstellungen, färbt sich der Datenschutz-Vogel grün. Verstößt sie dagegeit, läuft er rot an. Bei Seiten ohne P3P-Informationen bleibt er gelb. ' Programme wie dieses seien "einfache Werkzeuge, um erst einmal ein Leben mit P3P zu erkunden", erklärt Marc Langheinrich von der Technischen Hochschule Zürich. Er ist Koautor der P3P Spezifikationen. Es wird noch eine ganze Weile dauern, bis man wirklich zufrieden stellende Lösungen konzipieren kann", sagt er. Doch die schönste Software bringt wenig, wenn Web-Anbieter ihre Datenschutzrichtlinien nicht in dem Format zur Verfügung stellen. In den USA beginnen die großen Web-Anbieter, sich auf P3P einzulassen; das Lycos-Portal geht als Vorbild voran. In Deutschland sieht es anders aus. Publikumslieblinge wie spiegel.de, web.de bild.de oder freenet.de bieten keine maschiilnenlesbaren Datenschutz Erklärungen an. Von den bekannten Webseiten unterstützt nur tagesschau.de P3P. Immerhin ist einigen Anbietern die Problematik bekannt. So erklärt die Comdirect-Bank auf Anfrage, man verfolge die Entwicklung, habe aber keine konkreten Pläne. Man wartet offenbar ab, bis die Surfer das Thema offensiver aufgreifen.
So sagt Hanno Müller von Grußkarten-Anbieter edgarde: "Noch haben zu wenig Anwender einen P3P-fähigen Browser. Die,'die einen haben, wissen nicht, dass es P3P gibt und was sie damit anfangen können." Paradoxerweise sorgen die im interna tionalen Vergleich strengen deutschen Datenschutzgesetze dafür, dass sich nur wenige heimische Anbieter für P3P begeistern. In den USA sind die Vorschriften weitaus laxer. Das führte dazu, dass Firmen Datenschutz als Wettbewerbsvorteil begreifen und offensiv damit werben. Hier zu Lande sind die rechtlichen Standards höher, Unternehmen informieren ihre Kunden dafür weniger über Datenspeicherungen. Manche große Webanbieter verzichten sogar ganz auf Datenschutzhinweise; andere erklären lapidar, keine Gesetzesbrecher zu sein:. "Bei der Verwaltung ihrer Daten halten wir uns an die gesetzlichen Vorschriften." Eine Praxis, die Datenschutzbeauftragte als unzureichend ablehnen. Mehr Druck von Verbrauchern - den werde es nur geben, wenn die User mehr um die Risiken wissen, die das Surfen und Einkaufen im Netz mit sich bringen, erläutert Marc Langheinrich: "Solange sich der Bürger ausreichend von staatlichen Organen beschützt fühlt, wird da wenig Drang sein, sich seine Bücher nur von datenschutzfreundlichen Websites zu kaufen."
-
Ostermann, D.: US-Terrorfahnder verheddern sich im Daten-Dickicht (2004)
0.00
0.0043941787 = product of:
0.017576715 = sum of:
0.017576715 = weight(_text_:und in 3124) [ClassicSimilarity], result of:
0.017576715 = score(doc=3124,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14855097 = fieldWeight in 3124, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3124)
0.25 = coord(1/4)
- Content
- "So verständlich es ist, dass die USRegierung im Kampf gegen den Terror lieber einen Flug zu viel als zu wenig stoppt, so peinlich müsstees ihr sein, dass jetzt Versäumnisse offenbar werden, die Kritiker schon lange beklagen. Die US-Sicherheitsbehörden schlagen sich mit untauglichen Instrumenten herum: Noch immer gibt es in den USA keine zentrale Datenbank, in der alle Informationen über Terrorverdächtige zusammenfließen. Internationale Fluggesellschaften haben in der vergangenen Woche aus Sicherheitsgründen etliche Flüge in die USA storniert. Wenn sie Ziele in den Vereinigten Staaten anfliegen, müssen sie ihre Passagierlisten vorab an die US-Behörden weiterreichen. Der Europäischen Union hat Washington gerade erst das Recht abgepresst, die Daten unbescholtener Fluggäs- te jahrelang -zu speichern. Doch die Empfänger in den Vereinigten Staaten, sind offenbar nicht in der Lage, den Datenmüll von täglich mehreren hundert Flügen zu verarbeiten, Anders ist die Verwechslung eines Fünfjährigen mit einem mutmaßlichen tunesischen Extremisten an Bord einer Air-France-Maschine vorige Woche kaum zu erklären. Vor allem aber fehlt weiter eben jene zentrale Terror-Liste, mit der die Passagierdaten zuverlässig abgeglichen werden könnten. Stattdessen führt jede US-Behörde eigene "schwarze Listen". Das General Accounting Office (GAO), die Prüfbehörde des Kongresses, hat allein zwölf Karteien der US-Regierung gezählt, in der Terrorverdächtige erfasst werden. Der Geheimdienst CIA hat eine, der U.S. Marshals Service und das Pentagon. Das Außenministerium, zuständig für Einreisevisa, hat zwei Datenbanken. Die Bundespolizei FBI hat drei, das Ministerium für Heimatschutz vier, darunter die "No-fly"-Liste mit Personen, die nicht an Bord von Flugzeugen gelassen werden sollen. Doch wer etwa vom FBI dem terroristischen Umfeld zugerechnet wird, muss dort nicht registriert sein. Die vielen Karteien und die schlechte Koordination führte schon oft zu folgenschweren Pannen. So erhielten zwei der späteren Attentäter beim ersten Bombenanschlag auf das World Trade Center 1993 ein US-Visum, obwohl sie in einer "Watch"-Liste des FBI verzeichnet waren. Neun Jahre später kamen zwei der Attentäter des 11. September legal ins Land, obwohl das FBI nach ihnen Ausschau hielt. Auch hier fehlten die Namen auf der Liste der Einreisebehörden. Bürokratische und rechtliche Hindernisse sowie technische Schwierigkeiten haben die Einrichtung einerzentralen Kartei bislang verhindert. Unterschiedliche Schreibweisen etwa von arabischen Namen, abweichende Geburtsdaten oder die Verwendung von Aliasnamen haben sich als Hürden erwiesen. Auch ließ sich die Bush-Regierung mit dem Projekterstaunlich viel Zeit. Erst nachdem das GAO voriges Jahr die schleppenden Arbeiten kritisiert hatte, beschloss die Regierung laut Wall Street Journal im September die Einrichtung einer zentralen Informations-Sammelstelle, das Terrorist Screening Center (TSC). Das Zentrum soll demnach jetzt in die "Tipoff "-Liste des Außenministeriums die Informationen der elf anderen Datenbanken einbauen. Mit der Mammutaufgabe begonnen hat das TSC erst am ersten Dezember-drei Wochen bevor wegen der Angst vor neuen Flugzeuganschlägen die Warnstufe "Orange" ausgerufen wurde."
-
Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017)
0.00
0.0043941787 = product of:
0.017576715 = sum of:
0.017576715 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
0.017576715 = score(doc=4891,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14855097 = fieldWeight in 4891, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4891)
0.25 = coord(1/4)
- Abstract
- Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
-
Dietze, J.: Informationsrecherchesprache und deren Lexik : Bemerkungen zur Terminologiediskussion (1980)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 100) [ClassicSimilarity], result of:
0.017396435 = score(doc=100,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=100)
0.25 = coord(1/4)
-
Lepsky, K.: Ernst H. Gombrich : Theorie und Methode (1991)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 1753) [ClassicSimilarity], result of:
0.017396435 = score(doc=1753,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 1753, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1753)
0.25 = coord(1/4)
-
Wildemuth, B.M.; O'Neill, A.L.: Katalogrecherche nach bekannten Vorlagen : empirische Überlegungen zu nutzerorientierten Nachweisinstrumenten (1996)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 3318) [ClassicSimilarity], result of:
0.017396435 = score(doc=3318,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 3318, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3318)
0.25 = coord(1/4)
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.1, S.23-45
-
Belkin, N.J.: Intelligent information retrieval : whose intelligence? (1996)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 6170) [ClassicSimilarity], result of:
0.017396435 = score(doc=6170,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 6170, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6170)
0.25 = coord(1/4)
- Source
- Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
-
Spinner, H.F.: ¬Die Wissensordnung : ein Leitkonzept für die dritte Grundordnung des Informationszeitalters (1994)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 4331) [ClassicSimilarity], result of:
0.017396435 = score(doc=4331,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 4331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4331)
0.25 = coord(1/4)
- Imprint
- Opladen : Leske und Budrich
-
Gerick, T.: Content-based Information Retrieval auf Basis semantischer Abfragenetze : Kooperative Technologien am Beispsiel der Dokumentenrecherche in GENIOS Wirtschaftsdatenbanken (1999)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 4874) [ClassicSimilarity], result of:
0.017396435 = score(doc=4874,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 4874, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4874)
0.25 = coord(1/4)
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.4, S.205-209
-
dpa: Mädchen erkennen Formen früher : Psychologie (2001)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 6927) [ClassicSimilarity], result of:
0.017396435 = score(doc=6927,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 6927, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6927)
0.25 = coord(1/4)
- Abstract
- Weibliche Säuglinge erkennen dreidimensionale Formen früher als gleichaltrige Jungen. Das haben Psychologen der Universität Bonn herausgefunden. Weiteres Ergebnis ihrer Studien: Schon im Alter von acht Monaten können Babys beispielsweise eine gezeichnete Scheibe von einer Kugel unterscheiden, berichtet die Hochschule. Drei Monate jüngere Säuglinge seien dazu noch nicht in der Lage. Als Anschauungsmaterial zeichneten Forscher den stilisierten Umriss einer Röhre. Varianten dieses Bildes hatten einige kurze Linien mehr oder weniger. Dank dieser hinzugefügten oder weggelassenen Elemente war das jeweilige Bild besser oder schlechter als Röhre zu erkennen. Weil sie die kleinen Probanden nicht zu ihren Eindrücken befragen konnten, mussten die Psychologen einen anderen Weg finden. Dazu gewöhnten sie die Babys zunächst an ein Ausgangsbild und zeigten ihnen dann eine neue Zeichnung. Das Kind reagiert überrascht, wenn es einen Unterschied wahrnimmt; je überraschter, desto , länger wird so sich das neue Bild &mühen. Oder umgekehrt: Je länger der Säugling das neue Bild betrachtet, desto deutlicher ist ihm der Unterschied zum Ausgangsbild aufgefallen", berichtet der beteiligte Wissenschaftler Michael Kavsek
-
Egger, A.; Schloffer, E.: Digitale Bibliotheken in den USA : ein Reisebericht (2001)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 6955) [ClassicSimilarity], result of:
0.017396435 = score(doc=6955,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 6955, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6955)
0.25 = coord(1/4)
- Abstract
- Im Februar dieses Jahres hatte ich im Anschluss an eine Konferenz in New York dank unserer internationalen Kontakte aus dem METAe-Projekt die Möglichkeit, einige Institutionen in den USA, in denen Bibliotheksbestände digitalisiert werden, zu besuchen. Ziel war es, für unser METAe-Projekt die tägliche Praxis in der Digitalisierung besser kennen zu lernen. Auf meiner zehn Tage langen Reise beschränkte ich mich auf die vier "Must Sees" der digitalen Bibliotheken. Meine Reise begann in New York in der New York Public Library, welche vor allem für ihre Digitalisierungsabteilung bekannt ist. Weiter ging es dann nach Detroit in die University of Michigan, deren Stärke in der Erstellung und Verwaltung von elektronischen Texten liegt. Meine vorletzte Station, die Cornell University in Ithaca in der Nähe von Pittsburgh, entwickelt Software für digitale Bibliotheken. Harvard University, Boston, - letzte Station meiner Reise - ist bekannt für ihr hervorragend eingerichtetes Digitalisierungslabor
-
fwt: Webseiten liegen im Schnitt nur 19 Klicks auseinander (2001)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 6962) [ClassicSimilarity], result of:
0.017396435 = score(doc=6962,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 6962, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6962)
0.25 = coord(1/4)
- Abstract
- "Dokumente im World Wide Web liegen durchschnittlich 19 Mausklicks voneinander entfernt - angesichts von schätzungsweise mehr als einer Milliarde Seiten erstaunlich nahe. Albert-Lazlo Barabai vom Institut für Physik der University von Notre Dame (US-Staat Indiana) stellt seine Studie in der britischen Fachzeitschrift Physics World (Juli 2001, S. 33) vor. Der Statistiker konstruierte im Rechner zunächst Modelle von großen Computernetzwerken. Grundlage für diese Abbilder war die Analyse eines kleinen Teils der Verbindungen im Web, die der Wissenschaftler automatisch von einem Programm hatte prüfen lassen. Um seine Ergebnisse zu erklären, vergleicht Barabai das World Wide Web mit den Verbindungen internationaler Fluglinien. Dort gebe es zahlreiche Flughäfen, die meist nur mit anderen Flugplätzen in ihrer näheren Umgebung in Verbindung stünden. Diese kleineren Verteiler stehen ihrerseits mit einigen wenigen großen Airports wie Frankfurt, New York oder Hongkong in Verbindung. Ähnlich sei es im Netz, wo wenige große Server die Verteilung großer Datenmengen übernähmen und weite Entfernungen überbrückten. Damit seien die Online-Wege vergleichsweise kurz. Die Untersuchung spiegelt allerdings die Situation des Jahres 1999 wider. Seinerzeit gab es vermutlich 800 Millionen Knoten."
-
pte: Nervenzellen beim Lernen beobachtet : Neurologie (2001)
0.00
0.004349109 = product of:
0.017396435 = sum of:
0.017396435 = weight(_text_:und in 921) [ClassicSimilarity], result of:
0.017396435 = score(doc=921,freq=2.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.14702731 = fieldWeight in 921, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=921)
0.25 = coord(1/4)
- Content
- "US-Forscher haben Zellen des Gehirns unter einem Mikroskop beim Lernen zugeschaut. Dazu regten sie Nervenzellen elektrisch an und konnten anschließend sehen, wie sich die Zellen etwa zehn Minuten lang streckten, um sich enger zu verbinden. Dies ist ein möglicher Mechanismus des Gedächtnisses, schreiben die Wissenschaftler im Forschungsmagazin Cell. Den Forschern um Yukiko Goda von der Universität Kalifornien gelang es, unter dem Mikroskop eine Umgebung für Nervenzellen nachzustellen, in der sie zu natürlichen Lernprozessen animiert werden konnten. Die Wissenschaftler nahmen für ihre Versuche Zellen aus der Seepferdchen-Formation des Gehirns, dem Hippocampus, in dem sich beim Menschen Erinnerungen bilden. Regten die Forscher die Hirnzellen an, begann das innere Skelett der Zellen mit einem Umbau, so dass sie sich an einigen Stellen ausstülpten. Die Veränderungen verschwanden jedoch nach zehn Minuten wieder. Nur wenn die Nerven mehrfach auf die gleiche Weise angeregt wurden, bildeten sich neue Kontaktstellen zwischen den Zellen, die dauerhaft blieben. "An Vorgänge, die sich sehr oft wiederholt haben, kann man sich ein Leben lang erinnern", erklärte Goda."