Search (4748 results, page 194 of 238)

  • × year_i:[2000 TO 2010}
  1. Nentwich, M.: Cyberscience : research in the age of the Internet (2004) 0.01
    0.0076109404 = product of:
      0.030443761 = sum of:
        0.030443761 = weight(_text_:und in 2440) [ClassicSimilarity], result of:
          0.030443761 = score(doc=2440,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2572978 = fieldWeight in 2440, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2440)
      0.25 = coord(1/4)
    
    BK
    02.10 Wissenschaft und Gesellschaft
    05.20 Kommunikation und Gesellschaft
    Classification
    AK 26700 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Wissenschaftsentwicklung, -wachstum, Innovation (SWB)
    02.10 Wissenschaft und Gesellschaft
    05.20 Kommunikation und Gesellschaft
    Footnote
    Rez in: Wechselwirkung 26(2004) Nr.128, S.109-110: "In seinem englischsprachigen Buch "cyberscience - Research in the Age of the Internet" beschäftigt sich Michael Nentwich mit den Auswirkungen der Informationsund Kommunikations- (I&K) - Technologien auf den Wissenschaftsbetrieb. Zwei The sen stehen im Zentrum: Die erste ist, dass die I&K-Technologien einige Rahmenbedingungen und praktisch alle Formen wissenschaftlicher Tätigkeit betreffen. Ein systematisches Screening macht deutlich, dass sowohl der organisatorische Rahmen des Wissenschaftsbetriebs wie auch die Wissensproduktion sowie die Formen der wissenschaftlichen Kommunikation und schließlich die Wissensvermittlung (Lehre) direkt betroffen sind. Eine zweite, darauf aufbauende These lautet, dass die vielen Entwicklungen, mit denen sich Wissenschaftler konfrontiert sehen - angefangen von der ständigen Nutzung des Computers am Arbeitsplatz über die Verlagerung der Kommunikation mit Kollegen in Richtung E-mail bis zu neuen elektronischen Publikationsformen - nicht nur, wie zumeist angenommen, die Kommunikation beschleunigen, sondern das Potenzial zu qualitativen Veränderungen des Wissenschaftssystems haben. Diese These wird mit Hinweisen auf bereits eingeleitete oder möglicherweise bevorstehende Veränderungen hinsichtlich eines Kernstücks der wissenschaftlichen Kommunikation, nämlich des Publikationswesens, wie auch der Ortsgebundenheit von Forschung und schließlich hinsichtlich der Verteilung der Rollen im Wissenschaftsbetrieb belegt."
    RVK
    AK 26700 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftserforschung, -psychologie, -soziologie / Wissenschaftsentwicklung, -wachstum, Innovation (SWB)
  2. dpa: Yahoo flieht in die Arme von Google : Nach geplatzter Microsoft-Übernahme (2008) 0.01
    0.0076109404 = product of:
      0.030443761 = sum of:
        0.030443761 = weight(_text_:und in 2926) [ClassicSimilarity], result of:
          0.030443761 = score(doc=2926,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2572978 = fieldWeight in 2926, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2926)
      0.25 = coord(1/4)
    
    Content
    "Fünf Monate lang kämpfte Yahoo-Chef Jerry Yang gegen Microsoft-Boss Steve Ballmer. Am Donnerstag verkündete der Yahoo-Gründer einen Etappensieg: Der Softwaregigant hat nun endgültig alle Fusionsgespräche abgesagt. Und eine Übernahme von Filetstücken aus dem Internet-Konzern ist letztlich auch vom Tisch. Stattdessen setzt Yang nun auf eine enge Kooperation mit dem Suchmaschinen-Primus Google. Yahoo wird künftig auf seinen Webseiten Online-Anzeigen von Google präsentieren und damit allein im ersten Jahr einen Umsatz von 800 Millionen Dollar (rund 517 Mio Euro) erzielen. Die Schlacht für Jerry Yang ist damit aber nicht geschlagen. Weil der Yahoo-Chef den Deal mit Microsoft platzen ließ, stürzte die die Aktie seines Unternehmens am Donnerstag in New York um zehn Prozent ab. Microsoft-Chef Steve Ballmer hatte während der Übernahme- Verhandlungen zunächst 31 und später dann sogar 33 Dollar pro Anteilsschein geboten. Zuletzt soll Microsoft sogar erwogen haben, weitere 16 Prozent von Yahoo für 35 Dollar pro Aktie zu kaufen. Yahoo wollte laut Microsoft aber mindestens 37 Dollar. Yang muss sich inzwischen nicht nur von Groß-Investor Carl Icahn vorwerfen lassen, dass es ein Fehler gewesen sei, knapp 50 Milliarden Dollar von Microsoft auf dem Tisch liegen gelassen zu haben. "Man kann nicht die Tatsache verdrängen, dass 33 Dollar (pro Aktie) geboten und abgelehnt wurden", sagte Analyst Jeff Lindsay von Sanford C. Bernstein. Daher laufen im Silicon Valley derzeit heiße Wetten, ob die Unterstützer von Yang im Yahoo-Verwaltungsrat bei der nächsten Hauptversammlung am 1. August von Icahn und seinen Verbündeten abgelöst werden oder ob Yang sich mit seinen Leuten letztlich durchsetzen kann. Icahn gehört aber zweifelsohne zu den Verlieren des Tages. Er ist nach Berechnungen des Wirtschaftsmagazins "BusinessWeek" zu einem durchschnittlichen Aktienpreis von 25 Dollar bei Yahoo eingestiegen und könnte nun statt eines satten Gewinns einen Verlust einfahren. Denn selbst wenn es Icahn im August gelänge, Jerry Yang als Chef abzusetzen, kämen die Microsoft-Milliarden nicht wieder auf den Verhandlungstisch zurück. Am Ende des Machtkampfes zwischen Microsoft und Yahoo sehen etliche Beobachter nur einen Gewinner, nämlich Google. Das Geld im Web wird mit Suchanzeigen verdient. Microsoft wollte unbedingt die Reichweite von Yahoo haben, um zu Google aufzuschließen. Doch letztlich hat Microsoft-Chef Steve Ballmer mit seinem Vorstoß nur erreicht, dass die Online-Anzeigenplätze von Yahoo! in den Händen von Google landen werden. Unklar ist derzeit, wie die US-Kartellbehörden auf die Vereinbarung zwischen Yahoo und Google reagieren werden. Google-Chef Eric Schmidt bemühte im Vorfeld bereits Vergleiche mit der Automobilindustrie und sagte, dort sei es selbstverständlich, dass es nicht-exklusive Outsourcing-Vereinbarungen gebe. Davon habe eine gesamte Branche profitiert. Microsoft wird dagegen betonen, dass Google in den USA bereits mit einem Marktanteil von fast 70 Prozent das Online-Werbegeschäfts beherrsche. Ballmer kann sich aber nicht auf die Hilfe des Justizministeriums verlassen, sondern muss nun beweisen, dass Microsoft auch ohne die Zusammenarbeit mit Yahoo im Wettbewerb mit Google bestehen kann. "Sie sagen (bei Microsoft) jetzt, dass sie dass schon alleine schaffen werden. Aber die Vergangenheit hat gezeigt, wie schwer sie sich damit tun", erinnerte CNet-Kolumnistin Ina Fried."
  3. dpa/EB: "Wir sind nicht verantwortlich" : wikipedia.de wieder frei zugänglich - Spendenaufkommen verfünffacht (2008) 0.01
    0.0076109404 = product of:
      0.030443761 = sum of:
        0.030443761 = weight(_text_:und in 3459) [ClassicSimilarity], result of:
          0.030443761 = score(doc=3459,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2572978 = fieldWeight in 3459, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3459)
      0.25 = coord(1/4)
    
    Abstract
    Der zuvor sehr unbekannte Linke-Politiker und ehemalige Stasi-Mann Lutz Heilmann hatte per Einstweiliger Verfügung die Seite www.wikipedia.de vorübergehend sperren lassen.
    Content
    "Die Sperrung der Website wikipedia.de auf Veranlassung eines Linke-Politikers ist vom Landgericht Lübeck wieder aufgehoben worden. Der zuvor weitgehend unbekannte Linken-Bundestagsabgeordnete Lutz Heilmann zog gestern seinen Sperrantrag zurück. Damit verliere auch die Einstweilige Verfügung ihre Gültigkeit, sagte Richterin Gesine Brunkow. Wikimedia Deutschland e.V. dürfe auf seiner Seite wikipedia.de wieder auf die deutschsprachige Wikipedia (de.wikipedia.org) verlinken, sagte die Gerichtssprecherin. Der Verein stellte daraufhin seine Website wieder auf das Wikipedia-Angebot um. Heilmann hatte am Donnerstag die Sperrung der Weiterleitung von wikipedia.de auf das in den USA beheimatete Angebot von Wikipedia beantragt. Seiner Ansicht nach enthielt der Wikipedia-Artikel unwahre Behauptungen über ihn. Der 42-Jährige kam 2005 über die Landesliste der Linkspartei Schleswig-Holstein in den Bundestag. In den Jahren 1985 bis 1990 war er als Personen- und Objektschützer bei der Stasi beschäftigt. Heilmann sagt, er bedauere sein Vorgehen inzwischen. "Ich habe zu kurz gedacht und die Folgen nicht überschaut", sagte er der "taz". Auch in der Zeit der Sperre war das deutschsprachige Internet-Lexikon Wikipedia erreichbar über die Adresse http://de.wikipedia. org. In den vergangenen Tagen soll der Artikel über Heilmann mehr als eine halbe Million Mal angeklickt worden sein - in der Zeit vor dem Sperrantrag nur ein paar hundert Mal. Sebastian Moleski, Geschäftsführer von Wikimedia Deutschland, sagte, Heilmann sei schlecht beraten gewesen, überhaupt vor Gericht gegen den Verein vorzugehen. ,Wir sind für die Inhalte der deutschsprachigen. Wikipedia nicht verantwortlich." Wenn Personen mit Inhalten der Wikipedia über sich selbst nicht einverstanden seien, gebe es andere Wege, um zum Ziel zu kommen. Die überwiegende Mehrzahl von Problemen werde einvernehmlich intern gelöst, ohne dass Gerichte bemüht werden müssten.
    Die Heilmann-Affäre hat zu einer merkbaren Unterstützung der Wikipedia-Bewegung in Deutschland geführt, so Moleski. "Die Anzahl von Solidaritätsbekundungen, E-Mails und nicht zuletzt Spenden war enorm." Am Wochenende haben man fünf Mal so viele Spenden eingenommen wie an normalen Tagen. Und die Welle hielt an: Zwischen 8 und 20 Uhr vermeldete Wikimedia gestern im Internet den Eingang von 287 Online-Spenden. Im gleichen Zeitraum am Montag zuvor waren es 76 gewesen. Heilmann erklärte derweil auf seiner Website, der juristische Weg habe sich für diese Auseinandersetzung "insoweit als problematisch erwiesen, als durch die Struktur von Wikipedia die anderen Userinnen und User in Mitleidenschaft gezogen werden". Das sei nicht seine Absicht gewesen. Und er "bedaure es außerordentlich". dass durch die von ihm beantragte Einstweilige Verfügung "die deutschen Wikipedia-Userinnen und -User keinen direkten Zugriff mehr auf die Inhalte hatten"."
  4. Wegner, B.: Neuigkeiten vom Zentralblatt für Mathematik (2009) 0.01
    0.0076109404 = product of:
      0.030443761 = sum of:
        0.030443761 = weight(_text_:und in 220) [ClassicSimilarity], result of:
          0.030443761 = score(doc=220,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2572978 = fieldWeight in 220, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=220)
      0.25 = coord(1/4)
    
    Content
    "Die DMV ist nun in erweitertem Maße in den Aufsichtsgremien des Zentralblatts präsent. Nach dem Ausscheiden von Professor Bierstedt wird die Mathematik im Wissenschaftlichen Beirat und in der Gesellschafterversammlung des FIZ Karlsruhe, von dem die Redaktion des Zentralblatts ein Teil ist, durch Professor Ziegler vertreten. Diese beiden Positionen sind der DMV zugeordnet, und nun hat die DMV auch ihren eigenen Sitz im Koordinierungsausschuss des Zentralblatts erhalten, dem Gremium, das das Zentralblatt aus herausgeberischer Sicht überwacht. Hierfür hat die DMV Professor Leuzinger aus Karlsruhe benannt. Eine wichtige Kooperation zwischen der DMV und dem Zentralblatt stellt das DMV-Konsortium dar. Im Rahmen dieses Konsortiums kann das Zentralblatt zu besonders günstigen Konditionen bezogen werden. Das aktuelle DMV-Konsortium läuft nach nun fünf Jahren am 31. Dezember 2009 aus. Ein neues Konsortium wird zurzeit zwischen der DMV, dem FIZ Karlsruhe und dem Springer-Verlag ausgearbeitet. Hierfür sollen die Preise sich an der potenziellen Nutzung orientieren. Die Entwicklung eines solchen Modells braucht allerdings noch etwas Zeit. Aus diesem Grund werden die aktuellen Bedingungen für das DMV-Konsortium um ein Jahr verlängert. Die gedruckte Version des Zentralblatts wird es in der vertrauten Form ab dem kommenden Jahr nicht mehr geben. Einzige erkennbare Funktion der gedruckten Version, die nicht besser durch das Online-Angebot abgedeckt wird, ist das gebietsweise Stöbern, welche Publikationen gerade aktuell sind. Ein kompletter Abdruck aller Neuzugänge in der Datenbank ist hierfür zu hoch gegriffen. Deshalb bietet das Zentralblatt in gedruckter Form nur noch einen neuen Dienst namens "Excerpts from Zentralblatt MATH" an. Er ist wesentlich handlicher und natürlich auch preiswerter und versucht, einen guten Überblick zu geben, ohne den Anspruch zu erheben, nun unbedingt die besten Arbeiten herauszufischen. Das stellt sich ja oft erst viel später heraus.
    Letztere Tatsache ist der Grund für ein Projekt, das beim Zentralblatt gerade angestoßen wird und langfristig zu einer Vervollständigung der in der Datenbank angebotenen Information führen soll. Man könnte es "dynamic reviewing" nennen. Das Prinzip ist, dass die Daten kontinuierlich um relevante Informationen erweitert werden, die erst nach dem Referieren zu unserer Kenntnis gelangen. Das kann in vielen Fällen dazu führen, dass später noch einmal ein weiteres Referat eingeholt wird, das retrospektiv den Einfluss der jeweiligen Arbeit auf die Weiterentwicklung der Mathematik aufgreift. Das ist natürlich nur bei einer Einbeziehung der forschenden Mathematiker und Anwender von Mathematik in solch ein Projekt möglich. Hinweise zu diesen Ideen sind jederzeit willkommen. Mit Beginn des neuen Jahres bietet die Datenbank des Zentralblatts eine neue Suchoberfläche an, ohne die gewohnten Suchmöglichkeiten abzuschalten. Sie ist einfacher gestaltet und mit neuen attraktiven Funktionalitäten gekoppelt. Eine Testversion ist bereits seit November 2009 verfügbar. Dort wird dann auch bald der eingetragene Name für die Datenbank erscheinen, der hoffentlich einmal einen Schlusspunkt auf das Namenswirrwarr setzt: ZBMATH. Hiermit dürfte es auch international keine Ausspracheprobleme geben. Schließlich sei noch darauf hingewiesen, dass die gemeinsam mit den Mathematical Reviews durchgeführte Revision des MSC erfolgreich beendet ist. Das MSC 2010 weist nur geringfügige Modifikationen gegenüber dem MSC 2000 auf. Das Schema wird ab dem I. 1.2010 eingesetzt. Die Anwendung auf die redaktionellen Arbeiten erfolgte bereits 2009. Das MSC ist auf den Webseiten des Zentralblatts frei zugänglich. Eine gedruckte Version kann in der Redaktion angefordert werden."
  5. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.01
    0.0076109404 = product of:
      0.030443761 = sum of:
        0.030443761 = weight(_text_:und in 44) [ClassicSimilarity], result of:
          0.030443761 = score(doc=44,freq=18.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.2572978 = fieldWeight in 44, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=44)
      0.25 = coord(1/4)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
  6. Harms, I.; Schweibenz, W.: Usability engineering methods for the Web (2000) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 6482) [ClassicSimilarity], result of:
          0.030131513 = score(doc=6482,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 6482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6482)
      0.25 = coord(1/4)
    
    Content
    Der Beitrag präsentiert eine Studie über Evaluationsmethoden zur WebUsability. Er beschreibt die "Heuristics for Web Communications" und berichtet von den praktischen Erfahrungen mit den Heuristiken, die mit dem "Keevil Index" verglichen und mit Benutzertests mit lautem Denken kombiniert werden. Das Ergebnis zeigt, dass eine Evaluation mit den beschriebenen Heuristiken gegenüber dem "Keevil Index" mehr Zeit und Aufwand erfordert, aber konsistentere Ergebnisse bringt. Die Heuristiken haben sich sowohl in der experten-zentrierten Evaluation als auch in Kombination mit dem Benutzertest insgesamt als geeignete Evaluationsmethode erwiesen
  7. Rüegger, R.: ¬Die Qualität der virtuellen Information als Wettbewerbsvorteil : Information im Internet ist Sprache - noch (2000) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 6563) [ClassicSimilarity], result of:
          0.030131513 = score(doc=6563,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 6563, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6563)
      0.25 = coord(1/4)
    
    Abstract
    Das Web ist zur Tatsache geworden. Und mit dem Web entstand eine boornende Industrie, die viel zu erzählen hat, einiges leistet, den Marketingmix eines Unternehmens völlig verändert oder gar ganze Geschäftsprozesse neu definiert hat. Aber es entstand auch eine Industrie, die eines völlig aus den Augen verloren hat: Nach der Technik und nach dem Screen Design wird erst zaghaft an die mediumgerechte Ansprache des Kunden gedacht. Erst jetzt wird der Stellenwert von schriftlicher Information als "mission critical" bewertet. So ist bereits heute abzusehen, dass nach den fehlenden IT-Fachkräften demnächst der Ruf nach fähigen Web-Schreiberlingen laut werden dürfte. Denn Revolutionen auf dem Gebiet der Sprachtechnologie können erst stattfinden, wenn die Qualität der Inhalte entsprechend hoch ist
    Source
    Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
  8. Moglen, E.: ¬Die Musik sei mit uns : Wie die Industrie an Napster zugrunde geht (2001) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 6642) [ClassicSimilarity], result of:
          0.030131513 = score(doc=6642,freq=24.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 6642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6642)
      0.25 = coord(1/4)
    
    Abstract
    Die Musikindustrie feiert die angebliche Niederlage der Musiktauschbörse Napster. Doch was auf den ersten Blick wie ein Sieg erscheint, ist in Wirklichkeit der Anfang vom Ende der Branche. Denn der "Sieg" über Napster bedeutet tatsächlich ein schweres, nicht wieder rückgängig zu machendes Unheil für die Musikindustrie. Was heute mit der Musik geschieht, wird schon bald auch mit vielen anderen sogenannten "Inhalten" der Informationsgesellschaft geschehen. Aus dem Fall Napster können wir viel lernen über den Zusammenbruch des Verlagswesens und über die befreienden Möglichkeiten, die sich aus dem Zerfall jener kulturellen Oligopole ergeben, welche die zweite Hälfte des zwanzigsten Jahrhunderts beherrscht haben. Durch die Schließung von Napster wird die Musikindustrie ihre Ziele nicht erreichen, weil die Technologie des Austauschs von Musik keine zentralisierte Registrierung der von einzelnen Teilnehmern angebotenen Musikstücke mehr erfordert, wie Napster sie zur Verfügung stellte. Eine kostenlose Software namens OpenNap macht es möglich, daß jeder Computer den Austausch erleichtern kann. Auch Napster führte kein Verzeichnis der angebotenen Musik, sondern eröffnete den Hörern nur die Möglichkeit, herauszufinden, was andere Hörer zum Tausch anboten. Bei nahe u a len Tauschprogrammen kann man mit einem Mausklick von Napster auf andere Tauschsysteme umschalten. Und wenn die Anwender umschalten, geht die Musik mit ihnen. In dem Medienrummel um das Urteil werden sechzig Millionen Napster-Kunden von OpenNap erfahren, und OpenNap kann nicht gerichtlich belangt werden, weil niemand den Vertrieb der Freeware kontrolliert. Die Musikindustrie hat es also nicht mehr mit einem Unternehmen zu tun, das geschlossen werden kann, sondern mit einer technischen Bedrohung, der sie nur begegnen könnte, indem sie ihre Kunden verklagte.
    Und keine Branche kann überleben, die ihren eigenen Markt gerichtlich verfolgt. Die Musikindustrie - also die fünf Unternehmen, die zusammen etwa neunzig Prozent der populären Musik liefern - geht an einer grundlegenden ökonomischen Wahrheit zugrunde. In der Welt der digitalen Erzeugnisse, die gänzlich ohne Kosten kopiert und transportiert werden können, erweisen sich Vertriebsstrukturen, die auf dem Besitz der Inhalte oder der Nutzungsrechte basieren, als ineffizient. Wie uns John Guares in "Six degrees of separation" gezeigt hat, sind die Mitglieder einer Gesellschaft durch sechs Trennungsstufen voneinander getrennt. Das effizienteste Distributionssystem besteht darin, jedem die Möglichkeit zu geben, Musik an jeden Beliebigen weiterzugeben. Wenn Musik in unserem gegenwärtigen System durch sechs Hände gegangen ist, hat sie noch nicht einmal den Laden erreicht. Wenn sie dagegen in einem System, in dem das Recht zur Weitergabe nichts kostet, durch sechs Hände gegangen ist, hat sie schon Millionen Hörer erreicht. Diese Effizienzsteigerung bedeutet, daß Komponisten, Songwriter und Künstler bei einem anarchistischen Distributionsmodell, das auf Nutzungsrechte keine Rücksicht nimmt, nur gewinnen können, sofern jeder Hörer am Ende der Kette weiß, wie er den Künstler bezahlen kann, und dies auch tut. Hunderte potentieller "Geschäftsmodelle" sind zu erproben, wenn das auf Eigentum basierende Vertriebssystem verschwunden ist; keines der Modelle wird vollkommen sein, aber mit allen wird man in den kommenden Jahrzehnten experimentieren. Ohne Zweifel ist zunächst auch mit Härten zu rechnen, die weniger die Aktionäre der Musikkonglomerate treffen als die Künstler. Die berühmtesten Musiker werden weiterhin ein gutes Auskommen haben, während Künstler, die sich als Taxifahrer durchschlagen, nichts zu verlieren haben. Musiker, die sich mit ihren Platten gerade über Wasser halten können, müssen sich dagegen sorgen.
    Doch insgesamt werden die Musiker mehr gewinnen als verlieren. Ihre Abkehr vom gegenwärtigen Vertriebssystem wird die Musikindustrie zum kuriosen Überbleibsel einer vergangenen Wirtschaftsform machen, wie einst die Hersteller von Klavierwalzen oder die Bleisetzer. Die Giganten werden nicht über Nacht verschwinden und vielleicht auch gar nicht. Aber da ihre Rolle als Besitzer und Vertreiber keinen ökonomischen Sinn mehr hat, müssen sie sich auf Dienstleistungen in der Musikproduktion und der Werbung für die Künstler umstellen. Werbeagenturen, Berater, Verpackungsdienstleister - alles werden sie sein, nur nicht Besitzer der von ihnen vermarkteten Musik. Am wichtigsten an dieser Erscheinung ist die Tatsache, daß sie für alles gilt, was sich als digitaler Datenstrom von einem zum anderen weitergeben läßt. Die Folge wird sein, daß mehr Musik, mehr Gedichte, mehr Fotografien, mehr journalistische Arbeiten einem weitaus größeren Publikum zugänglich werden. Künstler und Autoren werden neue Publikumsschichten erschließen, und obwohl jeder Leser, Hörer oder Zuschauer weniger zahlt als heute, werden die Künstler sich nicht mehr mit den Brosamen der Distributionsoligarchen begnügen müssen. Die Musikindustrie mag sich heute beim Herrgott bedanken, doch ins Gelobte Land wird nicht sie einziehen, sondern wir.
  9. Stock, M.; Stock, W.G.: Internet-Suchwerkzeuge im Vergleich (IV) : Relevance Ranking nach "Popularität" von Webseiten: Google (2001) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 6771) [ClassicSimilarity], result of:
          0.030131513 = score(doc=6771,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 6771, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6771)
      0.25 = coord(1/4)
    
    Abstract
    In unserem Retrievaltest von Suchwerkzeugen im World Wide Web (Password 11/2000) schnitt die Suchmaschine Google am besten ab. Im Vergleich zu anderen Search Engines setzt Google kaum auf Informationslinguistik, sondern auf Algorithmen, die sich aus den Besonderheiten der Web-Dokumente ableiten lassen. Kernstück der informationsstatistischen Technik ist das "PageRank"- Verfahren (benannt nach dem Entwickler Larry Page), das aus der Hypertextstruktur des Web die "Popularität" von Seiten anhand ihrer ein- und ausgehenden Links berechnet. Google besticht durch das Angebot intuitiv verstehbarer Suchbildschirme sowie durch einige sehr nützliche "Kleinigkeiten" wie die Angabe des Rangs einer Seite, Highlighting, Suchen in der Seite, Suchen innerhalb eines Suchergebnisses usw., alles verstaut in einer eigenen Befehlsleiste innerhalb des Browsers. Ähnlich wie RealNames bietet Google mit dem Produkt "AdWords" den Aufkauf von Suchtermen an. Nach einer Reihe von nunmehr vier Password-Artikeln über InternetSuchwerkzeugen im Vergleich wollen wir abschließend zu einer Bewertung kommen. Wie ist der Stand der Technik bei Directories und Search Engines aus informationswissenschaftlicher Sicht einzuschätzen? Werden die "typischen" Internetnutzer, die ja in der Regel keine Information Professionals sind, adäquat bedient? Und können auch Informationsfachleute von den Suchwerkzeugen profitieren?
  10. EB: Bergisches Portal der Büchereien : Online-Angebotfür interessierte Leser (2006) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 493) [ClassicSimilarity], result of:
          0.030131513 = score(doc=493,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 493, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=493)
      0.25 = coord(1/4)
    
    Content
    "Online-Nutzer von Stadtbüchereien haben ab sofort unmittelbaren Zugriff auf die Bestände anderer bergischer Bibliotheken. Das teilte gestern die Bergisch Gladbacher Stadtverwaltung mit. Grundlage sei das "Bergische Portal - die digitale Bibliothek RheinBerg / Oberberg". Die gesamten Bibliotheksbestände von Bergisch Gladbach, Burscheid, Hückeswagen, Leichlingen, Morsbach, Overath, Radevormwald, Rösrath, Waldbröl, Wermelskirchen und Wiehl seien damit gleichzeitig über eine gemeinsame Suchmaske recherchierbar. Wer über einen Internetanschluss verfügt, kann vom heimischen PC aus Literatur suchen, Datenbanken abfragen oder sich Volltexte anzeigen lassen; wer diese Möglichkeit nicht hat, kann auch in jeder Bücherei das "Bergische Portal" nutzen. Auf Wunsch stehen hier Mitarbeiter beratend zur Seite. Über die digitale Bibliothek kann mit einer einzigen Recherche ermittelt werden, wo ein Buch vorhanden und ob es zurzeit verfügbar ist. Findet sich der gewünschte Titel nicht vor Ort, sondern einer anderen Bibliothek des Bergischen Portals", braucht man sich nicht auf den Weg dorthin zu machen, das Buch kann vielmehr über Fernleihe bestellt werden. Über den regionalen Bereich hinaus kann auch weltweit in Bibliotheken und Datenbanken gesucht werden. Gefördert wurde das "Bergische Portal" durch das Land NRW"
  11. Dobratz, S.; Schulz, M.: Dissertationen in SGML/XML : Erprobung eines Publikationskonzeptes (2000) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 649) [ClassicSimilarity], result of:
          0.030131513 = score(doc=649,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 649, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=649)
      0.25 = coord(1/4)
    
    Abstract
    Auf der Grundlage einer eigens entworfenen Dokumenttypdefinition für Dissertationen (DiML) wurden an der Humboldt-Universität Technologien und Konzepte entwickelt, um SGML/XML als Archivformat für elektronische Dissertationen innerhalb der Universitätsbibliothek zu integrieren. Ein Austausch mit Universitäten, die gleichartige Konzepte entwickeln, zeigt, daß die Probleme bei der Durchsetzung vor allem im Aufwand der Strukturierung bzw. Nachbearbeitung durch die Autoren bzw. die Bibliothek zu sehen sind. Daher wird versucht, durch die an die Bedürfnisse der Autoren angepaßte Benutzerschnittstellen die Arbeit für diese zu vereinfachen, um das in den Dissertationen enthaltene Wissen durch die Universitätsbibliotheken für ihre Leser nutzbar zu machen
    Source
    Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999. Hrsg.: H.P. Ohly, G. Rahmstorf u. A. Sigel
  12. Hehl, H.: Verknüpfung von MathDatabase mit elektronischen Aufsätzen und Verbundkatalogen : ¬Das Linksystem Math-Link (2001) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 735) [ClassicSimilarity], result of:
          0.030131513 = score(doc=735,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 735, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=735)
      0.25 = coord(1/4)
    
    Abstract
    Math-Link ist eines der in das Multisuchsystem E-Connect integrierten Linksysteme, die Datenbanken mit verfügbaren E-Zeitschriften bzw. den Standortnachweisen der zuständigen Verbundkataloge verknüpfen. In diesem Fall besteht eine Verknüpfung der Datenbank MathDatabase mit den E-Zeitschriften verschiedener Bibliotheken sowie mit den deutschen Verbundkatalogen. Math-Link ist wie die anderen Linksysteme ein mit JavaScript erstelltes und mit einem Webformular verbundenes Programm, das unabhängig von MathDatabase in einem besonderen Frame wie hier oder einem eigenen Browserfenster läuft. Der Zugriff auf die von MathDatabase angezeigten Suchergebnisse erfolgt nicht direkt, sondern lediglich von außen her durch Einfügen der vorher insgesamt markierten und kopierten Webseiten dieser Suchergebnisse in das Formulareingabefeld des Linksystems. Math-Link existiert in zwei Versionen. Eine inzwischen etwas veraltete Version ist auf das HTML-Format der Datanbankanzeige, eine neue Version auf das Ascii-Format eingestellt. Diese neue Version soll hier vorgestellt werden.
  13. Sixtus, M.: Durchblick im Daten-Labyrith : Bescheidener Auftritt, starke Wirkung: Googles "Desktop-Search", das Suchwerkzeug für die heimische Festplatte, im Praxistest (2004) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 751) [ClassicSimilarity], result of:
          0.030131513 = score(doc=751,freq=24.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 751, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=751)
      0.25 = coord(1/4)
    
    Content
    "Unordentliche Zeitgenossen hatten es mit Windows-Rechnern bislang schwer. Wer sich nicht genau erinnert, wo dieses oder jenes Dokument abgespeichert liegt, war auf die systemeigene Suche angewiesen - und musste viel Geduld mitbringen. Windows durchforstet Festplatten im Schneckentempo. Der Grund: Jede Suche läuft in Echtzeit. Ein zentrales Nachschlagewerk, das sämtliche Dateien und die darin verborgenen Informationen bereit hält, kennt das Betriebsystem nicht. Erst die nächste Version, die unter dem Code-Namen "Longhorn" entwickelt wird, sollte mit dem auf Datenbanktechnik basierendem Dateisystem Win-FS das Problem beseitigen. Doch daraus wird vorerst nichts: Kürzlich hat Microsoft die voraussichtliche Veröffentlichung von "Longhorn" auf den Sommer 2006 verschoben. Und: Das intelligente Dateisystem wird darin noch fehlen; Win-FS wird frühestens im Jahr 2007 nachgeliefert. Google macht sich den Makel zunutze - und bietet mit "Desktop Search" kostenlos ein kleines Werkzeug an, das endlich flott den eigenen Rechner durchstöbert. Die 447 Kilobyte kleine Installationsdatei lässt sich unter Windows XP oder 2000 (mit Service Pack 3) ausführen. Mit älteren WindowsVersionen verweigert sie den Dienst. Nach der Installation beginnt das Programm, die Festplatten zu durchsuchen und einen Index der gefundenen Dateien zu erstellen. Google warnt zwar, der Vorgang könne mehrere Stunden dauern; auf unserem TestNotebook benötigte das Programm aber nur etwa 30 Minuten, um die prallvolle 40-Gigabyte-Platte zu erfassen. Die Google Desktop-Suche nutzt fortan die Leerlaufzeit des Rechners, die so genannte "Idle Time", um den Index auf dem neuesten Stand zu halten. Hat der PC länger als 30 Sekunden nichts zu tun, springt das Programm an und fahndet nach Dateien. Das Werkzeug findet Inhalte der gängigen Büroprogramme Word, Excel und Powerpoint; es durchforscht reine Text-Dateien, zwischengespeicherte Webseiten, Nachrichten des Instant-Messengers von AOL sowie E-Mails in Outlook und Gutlook-Express. Andere Dateien können bislang nur anhand ihres Namens gefunden werden. Noch bezeichnet Google seine RechnerRecherche als Beta-, also unfertige Vorab-Version. Zurzeit gibt es nur eine Variante in englischer Sprache. Etwas kurios: Während der Installation fordert das Programm dazu auf, sämtliche Browser-Fenster und Outlook zu schließen. Kurz darauf heißt es: "Outlook kann nur durchsucht werden, wenn das Programm geöffnet ist."
    Die Oberfläche spartanisch zu nennen, würde den Kern nicht treffen: Genau genommen gibt es gar keine Oberfläche. Die installierte Suchfunktion erkennt man nur daran, dass die Google-Homepage nun auch den Suchbereich "Desktop" anbietet. Einkleines Symbol am Bildschirmrand neben der Uhrzeit bietet außerdem Zugriff auf die Einstellungen. Was Ungeübte verwirren könnte: Auch nach einer Google-Suche im Web erscheinen Treffer von der eigenen Festplatte unter der Überschrift "Results stored an your Computer". Diese Suchergebnisse sehen natürlich ausschließlich die jeweiligen Anwender. Erst darunter folgen die gewohnten Ergebnisse aus dem Netz. Datenschützer sind auf das kleine Programm aufmerksam geworden: "Die Kernfrage ist, ob dieses Ding nach Hause, zum Mutterschiff telefoniert % sagt Pam Dixon, Direktorin des World Privacy Forums. Google versichert, es würden keinerlei Informationen über den Festplatteninhalt an Unternehmen übermittelt. Auch während unseres Kurztests konnten wir keinerlei verdächtige Verbindungen feststellen. Aller. dings schickt die Desktop-Suche nach eigenen Angaben von Zeit zu Zeit Informationen über Programmabstürze und "nichtpersönliche Nutzungsdaten" auf den Weg.. Skeptische Zeitgenossen können die Funktion unter "Preferences" abstellen. Wer einen Rechner mit anderen Nutzern teilt, sollte sich die Installation der Suchfunktion gründlich überlegen. Denn problematisch könnte werden, dass das fleißige, Progrämmchen-unter anderem auch Seiten im Webbrowser-Zwischenspeicher indiziert, dem,so genannten Cache. Damit legt Google unter Umständen Überbleibsel der letzten Surftour offen. Unfreiwillige Einblicke Wer also den Kontostand über das Internet abgefragt oder seine Mails übers Web gelesen hat, kann dem nächsten PC-Nutzer mitunter unfreiwilligen Einblick in sein Privat-leben geben. Der unabhängige IT-Sicherheitsexperte Richard Smith bezeichnet, die Desktop-Suche deshalb als "Spyware ". Aus dem Hause Google heißt es dazu, das Ganze sei kein Fehler, sondern ein gewolltes Merk mal. Die Suchfunktion sei schlicht nicht für Mehrplatzrechner vorgesehen. In der Praxis gestaltet sich die Arbeit mit dem Suchwerkzeug praktisch und schnell. Allerdings vermisst man Filtermöglichkeiten, um allzu umfangreiche Ergebnisseiten zurechtzustutzen: Eine "Erweiterte Suche"; wie sie Google für das Web bietet, fehlt für den heimischen Rechner bislang. Google ist mit seinem so genannten Page-Rank-Verfahren zum Star der InternetSuchmaschinen aufgestiegen. Das System bewertet die Wichtigkeit einer Seite anhand der Anzahl und der Qualität der darauf verweisenden Webseiten: Mangels Verknüp fangen lässt sich das Prinzip nicht auf -einen isolierten Computer übertragen. Somit ist Googles Werbeslogan "Durchsuchen Sie ihren eigenen Computer so wie das Internet" etwas übertrieben."
  14. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 814) [ClassicSimilarity], result of:
          0.030131513 = score(doc=814,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=814)
      0.25 = coord(1/4)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  15. Suchmaschinen : Alltheweb versus Google (2002) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 1846) [ClassicSimilarity], result of:
          0.030131513 = score(doc=1846,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 1846, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1846)
      0.25 = coord(1/4)
    
    Content
    "Mitte Juni hieß es, dass nach eigenen Angaben der Osloer Firma Fast, Search & Transfer ASA deren Suchmaschine AlltheWeb (www.allthe web.com) über mehr Ressourcen als Google verfüge. Sie durchsuche 2 095 568 809 gegenüber 2 073 418 204 WebDokumenten bei Google. Bekanntlich sagt die Menge aber nichts über die Qualität aus - so die Reaktion seitens Google. Wie der Suchmaschinenexperte Klaus Schallhorn (www. kso.co.uk/) meldete, rechnet AlltheWeb dazu anscheinend auch Doppler und Seiten, die nicht mehr existieren. Außerdem, so Schallhorn, ignoriere AlltheWeb die Datei robots. txt, die festlegt, welche Dokumente/Verzeichnisse Suchmaschinen nicht durchsuchen sollen. In einem nach seinen Worten `keineswegs umfassenden' Vergleich zwischen AlltheWeb, AltaVista, Google und Fireball kommt Schallhorn zu dem Schluss, dass Google und AlltheWeb zwar meist führend sind, was die Zahl der Treffer angeht, aber je nach Suchbegriff mal die eine, mal die andere Suchmaschine die Nase vorn hat - ungeachtet der Frage, auf welcher Art Daten die Ergebnisse basieren."
  16. cw: Google erweitert Suchangebot (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2230) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2230,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2230, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2230)
      0.25 = coord(1/4)
    
    Content
    "Dabei handelt es sich namentlich um den Google Viewer und die Google Webquotes. Der Viewer kann als Diashow für Webseiten angesehen werden, der anstelle der Auflistung der zum Suchbegriff ausgeworfenen Webseiten, diese lädt und anzeigt. Über einen Naviagtionsbereich lässt sich die Diashow automatisch abspielen - die Verweildauer auf den einzelnen Suchergebnissen kann vom User individuell eingestellt werden. Auch das schrittweise Weiterklicken ist möglich. Die zweite Neuerung bietet zum besseren Überblick der Suchergebnisse zusätzliche Verweise und Hinweise auf die jeweilige Seite. Die Anzahl der Zusatzinfos (quasi Ausschnitte der Website) kann man im Voraus angeben. Um die noch in der Entwicklung befindlichen Dienste möglichst perfekt zu machen, bittet Google auch um das Feedback der User. Beide Funktionen können auf den Seiten der Google Labs bereits in Anspruch genommen werden, wobei es noch keine Garantie für die einwandfreie Funktionstüchtigkeit gibt.
  17. dwi: Zitatenschatz (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2271) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2271,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2271, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2271)
      0.25 = coord(1/4)
    
    Abstract
    Das Programm besteht im Kern aus einer Datenbank für bibliografische Angaben zu Büchern, Zeitschriftenartikeln oder Webseiten. Neben Autor, Titel und Erscheinungsdatum lassen sich Suchbegriffe und Notizen abspeichern. Ist eine Quelle erfasst, kann man den Eintrag jederzeit finden: Bibliographix sucht nach Autor, Titel oder Stichwort oder per Volltextsuche.
    Content
    "Während der Anwender ein Manuskript bearbeitet, fügt er Zitate direkt in den Text ein. Bibliographix arbeitet dabei eng mit Word zusammen. Wer eine andere Textverarbeitung verwendet, muss zum Einfügen den Umweg über die Zwischenablage wählen. Im Text erscheinen zunächst temporäre Zitate. In der fertigen Fassung wandelt Bibliographix die Platzhalter in die endgültige Form um und erstellt einen Anhang aller zitierten Werke. Bibliographix bietet jetzt einen direkten Zugang zur Deutschen Bibliothek, zum Hessischen Verbundkatalog, dem Gemeinsamen Verbundkatalog norddeutscher Bibliotheken sowie dem schweizerischen Helveticat. Auch Anfragen in den USA (Medline sowie Library of Congress) sind möglich. Quellenangaben aus dem Bibliothekskatalog wandern per Mausklick in die eigene Datenbank. Dank sinnvoller Ergänzungen ist das Programm komfortabler geworden, aber nach wie vor intuitiv zu bedienen. Die Basisversion ist zwar auf zehn Bibliothekszugriffe beschränkt, für kleinere Arbeiten reicht diese kostenlose Variante aber aus."
  18. Niggemann, E.; Rinn, R.: Vom CIP- zum Neuerscheinungsdienst : Hintergründe der Neukonzeption, aktueller Stand, Ausblick (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2631) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2631,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2631, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2631)
      0.25 = coord(1/4)
    
    Abstract
    Ramamrita Ranganathan hat 1948 erstmals das Konzept einer "Pre-natal classification and cataloguing" in den USA vorgestellt; rund 10 Jahre später führte die Library of Congress ein "cataloguing-in-source"-Projekt durch, das aber noch nicht bis zur konkreten Realisierung eines entsprechenden LC-Dienstes gedieh. 1971 schlug mit der Gründung des "CIP Office" in der LC die Geburtsstunde des ersten CIP-Dienstes der WeIt ("cataloguing-inpublication"). Andere nationale CIP-Programme folgten bald, darunter bereits 1974 der CIP-Dienst Der Deutschen Bibliothek sowie ein Vorläufer des kanadischen CIP-Dienstes, der offiziell zwei Jahre später aufgenommen wurde, und 1975 der CIP-Dienst der British Library. Die aus bibliothekarischer Sicht wichtigsten Funktionen des CIP-Dienstes waren - die Erwerbungsgrundlage durch möglichst frühzeitige Information über Neuerscheinungen und Neuausgaben sowie - die Katalogisierungsgrundlage (auch mittels des Eindrucks der CIP-Titelaufnahme im Buch). Die Basis des Verfahrens waren bis zuletzt die Titelmeldungen der Verleger auf einem gemeinsamen VLB-CIP-Formular (in den letzten Jahren auch in elektronischer Form) sowie die sog. Titeleien (Kopien der Titelseiten und dgl.), die im Prinzip mindestens vier Wochen vor dem Erscheinungstermin in der CIP-Stelle eingegangen sein mussten.
  19. ALEPH 500 mit multilingualem Thesaurus (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2639) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2639,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2639, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2639)
      0.25 = coord(1/4)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.
  20. Küssow, J.: ALEPH 500 mit multilingualem Thesaurus (2003) 0.01
    0.0075328783 = product of:
      0.030131513 = sum of:
        0.030131513 = weight(_text_:und in 2640) [ClassicSimilarity], result of:
          0.030131513 = score(doc=2640,freq=6.0), product of:
            0.118321106 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05334828 = queryNorm
            0.25465882 = fieldWeight in 2640, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2640)
      0.25 = coord(1/4)
    
    Abstract
    Das System ALEPH 500 (Version 14.2) bietet den Benutzern mit der Weiterentwicklung des "Multilingualen Thesaurus" verfeinerte Recherchefunktionen an, z.B. - Erhöhung der Treffsicherheit - Ausschluss von nicht zutreffenden Suchergebnissen - Aufspüren aller für die Suche relevanter Titel - Sprachunabhängige Suche - Beziehungen zwischen Begriffen. Im ALEPH 500-Web OPAC wird der Thesaurus in zwei Fenstern angezeigt. Links ist der Thesaurus-Baum mit Hierarchien und Begriffsbeziehungen abgebildet. Parallel dazu werden rechts die Informationen zum ausgewählten Deskriptor dargestellt. Von diesem Fenster aus sind weitere thesaurusbezogene Funktionen ausführbar. Der Thesaurus ist direkt mit dem Titelkatalog verknüpft. Somit kann sich der Benutzer vom gewählten Deskriptor ausgehend sofort die vorhandenen Titel im OPAC anzeigen lassen. Sowohl die Einzelrecherche über einen Deskriptor als auch die Top DownRecherche über einen Thesaurus-Baumzweig werden im Suchverlauf des Titelkatalogs mitgeführt. Die Recherche kann mit den bekannten Funktionen in ALEPH 500 erweitert, eingeschränkt, modifiziert oder als SDI-Profil abgelegt werden. Erfassung und Pflege des Thesaurusvokabublars erfolgen im Katalogisierungsmodul unter Beachtung allgemein gültiger Regeln mit Hilfe maßgeschneiderter Schablonen, die modifizierbar sind. Durch entsprechende Feldbelegungen können die vielfältigen Beziehungen eines Deskriptors abgebildet sowie Sprachvarianten hinterlegt werden. Hintergrundverknüpfungen sorgen dafür, dass sich Änderungen im Thesaurus sofort und direkt auf die bibliographischen Daten auswirken.

Languages

  • d 4221
  • e 485
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3535
  • m 804
  • el 218
  • x 210
  • s 184
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications