-
Kraker, P.; Schramm, M.; Kittel, C.: Open knowledge maps : visuelle Literatursuche basierend auf den Prinzipien von Open Science (2019)
0.01
0.008104086 = product of:
0.032416344 = sum of:
0.032416344 = weight(_text_:und in 702) [ClassicSimilarity], result of:
0.032416344 = score(doc=702,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.27396923 = fieldWeight in 702, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=702)
0.25 = coord(1/4)
- Abstract
- Die Wissenschaft befindet sich in einer Auffindbarkeitskrise. Obwohl durch die Open Access-Bewegung Forschungsergebnisse besser zugänglich geworden sind, wird ein signifikanter Teil der Outputs nicht nachgenutzt. Einen großen Anteil an der Krise haben die Tools, die für die Literatursuche verwendet werden. Angesichts von drei Millionen Veröffentlichungen pro Jahr sind klassische Ansätze, wie etwa listenbasierte Suchmaschinen, nicht mehr ausreichend. Open Knowledge Maps hat es sich zum Ziel gesetzt, die Auffindbarkeit wissenschaftlichen Wissens zu verbessern. Dafür betreibt die gemeinnützige Organisation aus Österreich die weltweit größte visuelle Suchmaschine für Forschung. Das Grundprinzip besteht darin, Wissenslandkarten für die Literatursuche zu nutzen. Diese geben einen Überblick über ein Forschungsfeld und ermöglichen so einen schnelleren Einstieg in die Literatur. Open Knowledge Maps basiert auf den Prinzipien von Open Science: Inhalte, Daten und Software werden unter einer freien Lizenz veröffentlicht. Dadurch entsteht eine offene, wiederverwendbare Infrastruktur; Lock-In-Effekte, wie sie bei proprietären Systemen auftreten, werden vermieden. Open Knowledge Maps arbeitet seit Beginn eng mit Bibliotheken und BibliothekarInnen als ExpertInnen für Wissensorganisation und -verwaltung zusammen. Im Rahmen eines konsortialen Fördermodells werden Bibliotheken nun eingeladen, das System stärker mitzugestalten - unter anderem bei wichtigen Zukunftsthemen wie der besseren Auffindbarkeit von Datensätzen.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 72(2019) H.2-4, S.460-477
-
Knaup, M.: ¬Ein neues Naturdenken als Grundlage für die Ethik : Zur Aktualität von Hans Jonas (2014)
0.01
0.008104086 = product of:
0.032416344 = sum of:
0.032416344 = weight(_text_:und in 2066) [ClassicSimilarity], result of:
0.032416344 = score(doc=2066,freq=10.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.27396923 = fieldWeight in 2066, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2066)
0.25 = coord(1/4)
- Abstract
- Hans Jonas (1903 - 1993) gehört zu den faszinierendsten Köpfen des zurückliegenden 20. Jahrhunderts. Insbesondere zur Ethik und Naturphilosophie hat er wegweisende und bis heute diskutierte Arbeiten vorgelegt, in denen er in tiefgründiger Weise das Verhältnis des Menschen zur Natur und unseren Umgang mit der Technik philosophisch reflektiert. Jonas ging es - gerade angesichts moderner technischer Möglichkeiten - um eine neue Naturphilosophie als Grundlage für eine Ethik globaler Verantwortung. Für die Aktualität1 seiner Überlegungen im noch jungen 21. Jahrhundert soll im Folgenden argumentiert werden. Ich tue dies in fünf Schritten: Zunächst soll ein Blick auf die Dynamik moderner Technik geworfen werden, insofern sich durch technologische Entwicklungen die Welt heute "schneller zu drehen" scheint als früher und sich damit auch neue ethisch-philosophische Fragen stellen (I.). In einem zweiten Schritt soll ein Blick auf einige neuzeitliche Engführungen hinsichtlich unserer Einstellung zur Natur sowie auf die Konsequenzen dieser veränderten Sichtweise, die bis heute spürbar sind, geworfen werden (II.). Um Lebensäußerungen, die nach Jonas mehr sind als bloße Epiphänomene (III.), und das Leben des Organischen (IV.) geht es dann in den folgenden Kapiteln. Schließlich wird ein Blick auf den Begriff der Verantwortung geworfen, der für das Denken von Jonas ganz zentral ist (V.).
-
Darstellung der CrissCross-Mappingrelationen im Rahmen des Semantic Web (2010)
0.01
0.008022635 = product of:
0.03209054 = sum of:
0.03209054 = weight(_text_:und in 285) [ClassicSimilarity], result of:
0.03209054 = score(doc=285,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2712157 = fieldWeight in 285, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=285)
0.25 = coord(1/4)
- Abstract
- Im Rahmen des CrissCross-Projekts wurde ein multilinguales, thesaurusbasiertes Recherchevokabular zu heterogen erschlossenen Dokumenten geschaffen. Dieses Recherchevokabular besteht unter anderem aus den Sachschlagwörtern der Schlagwortnormdatei (SWD) und den Notationen der Dewey-Dezimalklassifikation (DDC). Die Schlagwortnormdatei bietet einen normierten, terminologisch kontrollierten Wortschatz an. Sie enthält Schlagwörter aus allen Fachgebieten und Schlagwortkategorien, die durch die beteiligten Bibliotheken zur verbalen Inhaltserschließung genutzt und dabei täglich aktualisiert werden. Unter anderem wird die Schlagwortnormdatei auch zur verbalen Erschließung der Deutschen Nationalbibliografie verwendet. Während der verbalen Erschließung wird jedem Inhalt mindestens eine Schlagwortfolge zugewiesen. Schlagwortfolgen werden dazu benutzt, um die komplexen Themen eines Dokuments zu beschreiben. Zusätzlich wird für den Neuerscheinungsdienst der Deutschen Nationalbibliografie seit dem Jahrgang 2004 jeder Titel noch mindestens einer Sachgruppe zugewiesen. Die Strukturierung der Sachgruppen orientiert sich dabei weitestgehend an der zweiten Ebene der Dewey-Dezimalklassifikation. Die Dewey-Dezimalklassifikation ist eine international weit verbreitete Universalklassifikation. Von ihr existieren zahlreiche Übersetzungen, u. a. ins Deutsche. Seit Januar 2006 wird die DDC gemeinsam mit der SWD zur Inhaltserschließung in der Deutschen Nationalbibliografie verwendet. Bei der Inhaltserschließung mit Hilfe der DDC wird jedem Inhalt eine einzelne DDC-Notation zugewiesen. Komplexe Themen werden dabei durch die Synthese von zwei oder mehr Notationen zu einer neuen Notation dargestellt. Somit ist die DDC-Notation sowohl vergleichbar mit SWD-Schlagwörtern als auch mit ganzen Schlagwortfolgen.
Um aus diesen beiden unabhangigen Systemen zur Inhaltserschlieung ein einheitliches, multilinguales Recherchevokabular zu bilden wurden im Rahmen des CrissCross Projekts unidirektionale Verbindungen von den einzelnen Sachschlagwortern der SWD zu den (teilweise) synthetisierten Notationen der DDC gescha en. Mittels dieser Verbindungen soll ein praziser und umfassender Zugang zu DDC-erschlossenen Dokumenten uber SWD-Schlagworter gewahrleistet werden. Da DDC-Notationen aber eher ihre Entsprechung in einer Kombination aus Schlagwortfolge und Sachgruppe haben, kann dieses Mapping in der Regel nur von SWD in Richtung DDC ausgewertet werden ohne dass ein groerer Informationsverlust auftritt. Deshalb haben die erstellten Mappings immer eine spezielle Verknupfungsrichtung, bei der die SWD als Ausgangsvokabular und die DDC als Zielvokabular dient. Das Dokument startet in Abschnitt 2 mit einem Uberblick uber die vier verschiedenen CrissCross-Mappingrelationen. Diese Mappingrelationen sollen im Rahmen einer Erweiterung fur die SKOS-Spezi kation4 semantisch reprasentiert werden. SKOS soll dabei sowohl benutzt werden, um die Konzepthierarchien der SWD und der DDC darzustellen als auch um die Mappings zwischen den beiden zu reprasentieren. Anhand von zwei konkreten Beispielen wird in Abschnitt 3 genauer erklart, welche Probleme insbesondere bei der Abbildung der CrissCross-Mappingrelationen mit Hilfe der SKOSSpezi kation auftreten. Insbesondere die Unidirektionalitat der ursprunglichen CrissCross-Mappings ist problematisch, da die in SKOS de nierten Mappingrelationen von einer Bidirektionalitat ausgehen. Das heit die Mappings mussen sowohl nutzbar sein fur die Suche in SWD-erschlossenen Bestanden als auch fur die Suche in DDC-erschlossenen Bestanden. Anhand der Beispiele in Abschnitt 3 wird deshalb auch eine initiale Losungsidee entwickelt, wie die Unidirektionalitat der CrissCross-Mappings aufgehoben werden kann.
Basierend auf der Analyse und der initialen Losungsidee aus Abschnitt 3 werden anschlieend in Abschnitt 4 konkrete Losungsvorschlage unterbreitet, wie die Losungsidee im Rahmen einer SKOS-Erweiterung umgesetzt werden kann. Es werden mehrere Losungsvorschlage vorgestellt und miteinander verglichen. Ein wichtiger Teil der Losungsvorschlage ist die Repräsentation von koordinierten Konzepten. Der andere wichtige Teil ist die Herleitung der CrissCross-Mappingrelationen von den existierenden, bidirektionalen SKOS-Mappingrelationen. Diese beiden Erweiterungen der SKOSSpezifikation konnen zusammen dazu genutzt werden, die Mappings im Rahmen des Semantic Webs einem groeren Zielpublikum zur Verfugung zu stellen und nutzbar zu machen.
-
Majica, M.: Wenn der Kühlschrank online geht : Zugang zum Netz (2012)
0.01
0.008022635 = product of:
0.03209054 = sum of:
0.03209054 = weight(_text_:und in 1225) [ClassicSimilarity], result of:
0.03209054 = score(doc=1225,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2712157 = fieldWeight in 1225, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1225)
0.25 = coord(1/4)
- Content
- "Was macht eigentlich Nabaztag? Eine Google-Suche lässt schnell erahnen, dass es dem Hasen mit den putzigen Ohren nicht gut geht. Es war im Jahr 2007 , da tourte der Franzose Rafi Haladjian durch die Welt, um die Menschheit davon zu überzeugen, dass ihr ein internetfähiger Hase gefehlt hat. Genauer: das Plastiktierchen Nabaztag, das sich ansprechen ließ und den Wetterbericht und E-Mails vorlesen konnte. "Wenn man Hasen vernetzt, ist das ein ironischer Weg zu zeigen, dass man alles vernetzen kann", sagte Haladjian damals. Seine Firma Violet meldete 2009 Insolvenz an. So absurd die Idee mit dem internetfähigen und vernetzten Hasen klingen mag - der Franzose ist mitnichten der Einzige, der in diese Richtung denkt. Unter dem Slogan "Internet der Dinge" tauchen immer wieder Ideen auf, mehr als den bisher üblichen Geräten Zugang zum Netz zu verschaffen. Da nun fast endlos viele IP-Adressen für wirklich jedes Gerät zur Verfügung stehen, rückt das wieder in den Blick. Vor allem im Haushalt fallen Designern immer wieder Gegenstände auf, bei denen eine Internetverbindung sinnvoll erscheint: etwa ein digitaler Bilderrahmen, der selbstständig Fotos aus Online-Fotodiensten herunterlädt. Noch genug Milch im Haus? Oder ein Familienkalender, auf den Vater, Mutter, Kinder und die Großeltern Zugriff von ihren Handys und Bürorechnern haben, so- dass abends beim Essen dann alle die eingetragenen Termine vor Augen haben. Fast zu einer Art Treppenwitz der Branche hat es der internetfähige Kühlschrank gebracht, der autonom etwa den Milch-Füllstand registriert und bei Bedarf über die Webseite des bevorzugten Einzelhändlers nachbestellt. "Das ist so eine Idee, wo sich viele Menschen sagen: Kühlschrank aufmachen, reingucken und notieren, was ich brauche - das kriege ich auch ohne Internet noch hin", sagt Ralf Sauerzapf. Er ist Sprecher bei der Telekom, also jenem Unternehmen, das vor sieben Jahren in Berlin auch schon einmal ein intelligentes Haus präsentiert hat - natürlich inklusive vernetztem Kühlschrank und per Smartphone einschaltbarer Waschmaschine. Trotzdem könnte das "Internet der Dinge" nun wieder interessant werden, glaubt Sauerzapf. Wenn durch die Vielzahl der verfügbaren neuen IP-Adressen theoretisch jedes Objekt vernetzt werden könne, seien beispielsweise intelligente Stromzähler denkbar. Deren "Schlauheit" könnte sich gleich in zwei Richtungen bemerkbar machen: Zum einen könnte beispielsweise der Stromverbrauch über das Internet so gesteuert werden, dass etwa die Spülmaschine dann eingeschaltet wird, wenn der Strom auf dem Markt am billigsten ist. Software erledigt Hasen-Job Zum anderen könnten die Energieerzeuger sehr genau den Verbrauch taxieren, aber auch die zahlreichen Einspeisungen. So wäre leichter zu koordinieren, wie viel Strom überhaupt zu welcher Zeit hergestellt werden muss. Solche Lösungen sind natürlich nicht so charmant wie ein Internet-Hase. Aber Mails und Wettervorhersagen liest mittlerweile Software wie Apples Siri vor. Die funktioniert gut - aber ein Paar langer Ohren stünden ihr auch nicht schlecht. Und wären auch eine Reminiszenz an Nabaztag."
-
axk: Fortschritt im Schneckentempo : die Deutsche Digitale Bibliothek (2012)
0.01
0.008022635 = product of:
0.03209054 = sum of:
0.03209054 = weight(_text_:und in 1313) [ClassicSimilarity], result of:
0.03209054 = score(doc=1313,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2712157 = fieldWeight in 1313, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1313)
0.25 = coord(1/4)
- Content
- "Die Bestände von rund 30.000 deutschen Kulturinstitutionen sollen als Online-Kopie zukünftig in der Deutschen Digitalen Bibliothek (DDB) zu finden sein. Doch dahin scheint es noch ein langer Weg zu sein: Das Online-Portal läuft bislang nur im internen Testbetrieb. Und die öffentliche Hand kann den Aufwand für die Digitalisierung der ganzen Werke kaum alleine stemmen, wie Kulturstaatsminister Bernd Neumann (CDU) bereits mehrfach betonte. Um die Verwandlung von gemeinfreien Kulturgütern in Bits und Bytes schneller voranzubringen, sollte über eine im April 2011 veröffentlichte Ausschreibung ein großes Unternehmen als Digitalisierungspartner gewonnen werden. Der Konzessionsinhaber hätte dann die Rahmenvereinbarung abnicken und auf dieser Basis die Verträge mit den einzelnen Kulturinstitutionen aushandeln müssen. Bei der Digitalisierung hätte der potentielle Partner aus der Wirtschaft der jeweiligen Einrichtung eine digitale Kopie überlassen müssen und ein nicht-exklusives Verwertungsrecht an der eigenen Kopie erhalten - all das auf "eigenes wirtschaftliches Risiko". Informierten Kreisen zufolge war diese Ausschreibung von vornherein auf den Suchmaschinenriesen Google zugeschnitten. Der kooperiert seit 2007 mit der Bayerischen Staatsbibliothek und digitalisiert auf eigene Kosten urheberrechtsfreie Bücher aus deren Beständen. Man ging wohl davon aus, dass sich Google aus Imagegründen auch für die unattraktiv gestaltete Lizenz zur deutschlandweiten Digitalisierung interessieren würde - was aber nicht der Fall war. Stattdessen musste die Ausschreibung mangels passender Bewerber erfolglos zurückgezogen werden, wie im Juni 2012 bekannt gemacht wurde. Neue Ausschreibungen für exklusive Partnerschaften soll es laut der Pressestelle des Kulturstaatsminister nicht geben, aber einzelne Kooperationen mit verschiedenen Unternehmen. Hier sollen bereits Verhandlungen mit nicht weiter benannten Interessenten laufen.
Immer wieder in die Kritik gerät die angesetzte Finanzierung der DDB: So sind seit 2011 jährlich 2,6 Millionen Euro für den Betrieb der Plattform vorgesehen, für die Digitalisierung von Inhalten stehen aber keine direkten Bundesmittel zur Verfügung. Dr. Ellen Euler zufolge, der Geschäftsführerin der Deutschen Digitalen Bibliothek, seien Aufstockungen zumindest im Gespräch. Von den Dimensionen der 750 Millionen Euro, die der damalige französische Premier Nicholas Sarkozy für die Digitalisierung in seinem Land zusagte, dürfte man jedoch noch weit entfernt sein. Derzeit wird die Digitalisierung der Inhalte vor allem von den Ländern und den ihnen unterstellten Einrichtungen vorangetrieben. So plant etwa das Land Berlin laut einer parlamentarischen Anfrage (PDF-Datei) 2012 und 2013 jeweils 900.000 Euro für ein eigenes "Kompetenzzentrum Digitalisierung" bereitzustellen, das die Arbeit von Bibliotheken, Archiven und Museen koordinieren soll. Inwgesamt richte sich ein Großteil der Bemühungen der Länder auf vom Verfall bedrohte Bestände, wie Dr. Euler verriet. Eine übergreifende Strategie seitens der Bundesregierung, wie sie auch von der Opposition gefordert wurde, gibt es derzeit nicht.
Der Anfang des Jahres vom Bundestag beschlossene Antrag für eine "Digitalisierungsoffensive" (PDF-Datei) überlässt es "vor allem auch Angebot und Nachfrage", was digitalisiert wird. Für den Ausgleich der Interessen sollen dabei das Kompetenznetzwerk Deutsche Digitale Bibliothek sorgen, in dem 13 große Einrichtungen vertreten sind, sowie ein Kuratorium mit Vertretern aus Bund, Länder und Kommunen. Immerhin plant die DDB laut Euler ein zentrales Register, mit dem die verschiedenen Institutionen ihre Vorhaben abgleichen könnten, um unnötige Doppeldigitalisierungen zu vermeiden. Nach wie vor offen ist auch noch, wann die Beta-Version der DDB nun endlich öffentlich zugänglich gemacht wird: Ursprünglich für Ende 2011 angekündigt, nennt die Webseite des Kulturstaatsministers zur Stunde noch das inzwischen abgelaufene zweite Quartal 2012 als Starttermin. Dr. Euler von der DDB sprach vom Herbst 2012, im September werde möglicherweise ein konkreter Termin bekanntgegeben."
-
Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017)
0.01
0.008022635 = product of:
0.03209054 = sum of:
0.03209054 = weight(_text_:und in 558) [ClassicSimilarity], result of:
0.03209054 = score(doc=558,freq=20.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2712157 = fieldWeight in 558, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=558)
0.25 = coord(1/4)
- Abstract
- Künstliche Intelligenz ist unsere unausweichliche Zukunft. Wird sie uns ins Verderben stürzen oder zur Weiterentwicklung des Homo sapiens beitragen? Die Nobelpreis-Schmiede Massachusetts Institute of Technology ist der bedeutendste technologische Think Tank der USA. Dort arbeitet Professor Max Tegmark mit den weltweit führenden Entwicklern künstlicher Intelligenz zusammen, die ihm exklusive Einblicke in ihre Labors gewähren. Die Erkenntnisse, die er daraus zieht, sind atemberaubend und zutiefst verstörend zugleich. Neigt sich die Ära der Menschen dem Ende zu? Der Physikprofessor Max Tegmark zeigt anhand der neusten Forschung, was die Menschheit erwartet. Hier eine Auswahl möglicher Szenarien: - Eroberer: Künstliche Intelligenz übernimmt die Macht und entledigt sich der Menschheit mit Methoden, die wir noch nicht einmal verstehen. - Der versklavte Gott: Die Menschen bemächtigen sich einer superintelligenten künstlichen Intelligenz und nutzen sie, um Hochtechnologien herzustellen. - Umkehr: Der technologische Fortschritt wird radikal unterbunden und wir kehren zu einer prä-technologischen Gesellschaft im Stil der Amish zurück. - Selbstzerstörung: Superintelligenz wird nicht erreicht, weil sich die Menschheit vorher nuklear oder anders selbst vernichtet. - Egalitäres Utopia: Es gibt weder Superintelligenz noch Besitz, Menschen und kybernetische Organismen existieren friedlich nebeneinander. Max Tegmark bietet kluge und fundierte Zukunftsszenarien basierend auf seinen exklusiven Einblicken in die aktuelle Forschung zur künstlichen Intelligenz.
- Footnote
- Originaltitel: Life 3.0. Rez. unter: http://www.spektrum.de/rezension/buchkritik-zu-leben-3-0/1528679 (Lobe, Adrian: "Der versklavte Maschinengott"): "--- Der Autor wirft in seinen "KI-Nachwirkungsszenarien" zahlreiche technikphilosophische Fragen auf, etwa: Sollten Menschen oder Maschinen die Kontrolle haben? Sollten künstliche Intelligenzen bewusstseinsfähig sein oder nicht? Sollte der Mensch weiter existieren, ersetzt werden durch Cyborgs und/oder Uploads umgestaltet oder simuliert werden?
Was bei der Lektüre des Buchs positiv auffällt: Der Autor bewertet diese ethischen Fragen nicht, sondern stellt sie offen in den Raum. Sein Ton ist sachlich, nüchtern und frei von jedem Alarmismus. Anders als der häufig apodiktisch argumentierende Kurzweil stellt Tegmark seine Zukunftsszenarien nicht als Unabänderlichkeit dar, sondern als gestaltbaren Möglichkeitsraum. Im jetzigen Stadium der Entwicklung könne der Mensch die Weichen noch stellen - er müsse sich nur entscheiden. Darin kann man auch eine versteckte Kritik an den Programmierern lesen, die sich häufig hinter der analytischen Formel des "Problemlösens" verstecken, aber keine nachhaltigen Gesellschaftsmodelle entwickeln. Die KI wird gesellschaftliche Hierarchien verändern, vielleicht sogar neu strukturieren - daran lässt Tegmark keinen Zweifel. Sein Buch ist eine luzide, wenn auch nicht immer erbauliche Vermessung. Einzig das Schlusskapitel über Bewusstseinstheorien und einige Anspielungen auf Konferenzteilnehmer, die wohl nur Insidern ein Begriff sind, wären verzichtbar gewesen. Ansonsten ist es ein überaus gelungenes Werk, das dem Leser als Kompass durch die Irrungen und Wirrungen künstlicher Intelligenz gereicht."
-
Averesch, D.: Googeln ohne Google : Mit alternativen Suchmaschinen gelingt ein neutraler Überblick (2010)
0.01
0.007840468 = product of:
0.03136187 = sum of:
0.03136187 = weight(_text_:und in 361) [ClassicSimilarity], result of:
0.03136187 = score(doc=361,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.26505727 = fieldWeight in 361, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=361)
0.25 = coord(1/4)
- Content
- "Googeln hat es bis in den Duden geschafft. Kein Wunder, dass viele das Angebot aus dem kalifornischen Mountain View quasi als amtliche Internet-Suchmaschine betrachten und nutzen. Wegen seiner unzähligen Zusatzdienste vom Webmailer bis hin zu Onlinekarten hat sich Google aber auch den Ruf eines Datenkraken erworben. Auch deshalb wenden sich viele Nutzer den Suchmaschinen der Konkurrenz zu. So propagiert der Verein für freien Wissenszugang (Suma eV) aus Hannover, dass es wichtig sei, "mehrere, unabhängig voneinander arbeitende Suchmaschinen einzusetzen, um einen möglichst neutralen und umfassenden Überblick geeigneter Quellen zu erhalten". Schirmherr des Vereins ist der MP3-Erfinder Karlheinz Brandenburg. Bei einem Quasi-Monopol wie es Google innehat, bestehe "auf Dauer die Gefahr, dass die Ergebnisse der Informationssuche von Einflüssen nicht allgemein erkennbarer Mechanismen der Betreiber geleitet werden." Laut dem Internet-Statistikdienst Hitslink liefen in diesem Jahr bisher knapp 86 Prozent aller Suchanfragen weltweit über Google. Platz zwei belegt weit abgeschlagen Yahoo mit knapp sechs Prozent. Microsofts Suche Bing belegt - noch nicht einmal ein Jahr alt - mit gut drei Prozent bereits den dritten Rang. Vergleichsweise stark genutzt wird rund um den Globus auch noch die globale Suche von Ask. Hindernisse türmen sich vor wechselfreudigen Surfern jedenfalls nicht auf und Probieren kostet nichts. Jeder beliebige Suchdienst lässt sich bei Browsern wie Firefox oder Internet Explorer mühelos einbinden oder als Startseite festlegen.
Wer den großen Google-Konkurrenten erst einmal im Blindtest auf den Zahn fühlen will, kann das unter http://blindsearch.fejus.com tun. Die Suchergebnisse werden im gleichen Design in drei Spal- ten nebeneinander dargestellt. Erst, wenn der Nutzer sein Votum abgegeben hat, in welcher Spalte die seiner Meinung nach besten Ergebnisse stehen, lüftet die Seite das Geheimnis und zeigt die Logos von Bing, Yahoo und Google an. Der Verein Suma zieht das Fazit, dass "The Big Three" qualitativ gleichwertig seien. Am Tempo gibt es bei den großen Suchmaschinen nichts zu bemängeln. Alle drei spucken ihre Ergebnisse zügig aus. Google und Yahoo zeigen beim Tippen Suchvorschläge an und verfügen über einen Kinder- und Jugendschutzfilter. Letzterer lässt sich auch bei Bing einschalten. Auf die Booleschen Operatoren ("AND", "OR" etc.), die Suchbegriffe logisch verknüpfen, verstehen sich die meisten Suchmaschinen. Yahoo bietet zusätzlich die Suche mit haus- gemachten Abkürzungen an. Shortcuts für die fixe Suche nach Aktienkursen, Call-byCall-Vorwahlen, dem Wetter oder eine Taschenrechnerfunktion finden sich unter http://de.search.yahoo.com/info/shortcuts. Vergleichbar ist das Funktionsangebot von Google, das unter www.google.com/intl/de/help/features.html aufgelistet ist. Das Unternehmen bietet auch die Volltextsuche in Büchern, eine Suche in wissenschaftlichen Veröffentlichungen oder die Recherche nach öffentlich verfügbarem Programmiercodes an. Bei den großen Maschinen lassen sich in der erweiterten Suche auch Parameter wie Sprachraum, Region, Dateityp, Position des Suchbegriffs auf der Seite, Zeitraum der letzten Aktualisierung und Nutzungsrechte einbeziehen. Ganz so weit ist die deutsche Suche von Ask, die sich noch im Betastudium befindet, noch nicht (http://de.ask.com). Praktisch ist aber die Voran-sicht der Seiten in einem Popup-Fenster beim Mouseover über das Fernglas-Symbol vor den Suchbegriffen. Die globale Ask-Suche (www.ask.com) ist schon weiter und zeigt wie Google direkt auch Bilder zu den relevantesten Foto- und Video-Suchergebnissen an.
Unzählige kleinere und Spezial-Suchmaschinen bieten Einblicke in Ecken des Netzes, zu denen man mit den Großen eher nicht gelangt wä- re. Nach wie vor gibt es auch Verzeichnisdienste. die Seiten in genau beschriebenen Kategorien auflisten. Dazu gehört www.dmoz.org. Um mehrere Maschinen und Verzeichnisdienste gleichzeitig abzufragen, empfehlen sich Metasuchmaschinen. Eine der bekanntesten ist MetaGer, ein Projekt der Universität Hannover. Eine weitere interessante Metasuchmaschine, deren Ergebnisse aber auf Nordamerika zugeschnitten sind, ist www.clusty.com. Wie der Name andeutet, bündelt sie die Suchergebnisse zu logischen Clustern. Auch praktisch: Beim Klick auf die Lupensymbole hinter den Suchergebnissen öffnen sich beliebig viele Vorschauen direkt in der Web- seite. Ob das Googeln ohne Google irgendwann nichts besonderes mehr ist, hängt maßgeblich von den Surfern ab - davon ist man beim Verein für freien Wissenszugang überzeugt: Änderungen seien ,;weniger durch neue Technologien, sondern vor allem durch verändertes Nutzerverhalten aufgrund steigender Informationskompetenz zu erwarten."
-
Schmidt, V.: Gut kombiniert, Watson : Was ist so schwer daran, ein Quiz zu gewinnen, wenn man die komplette Wikipedia im Kopf hat? Die FR erklärt den Jeopardy-Sieg (2011)
0.01
0.007840468 = product of:
0.03136187 = sum of:
0.03136187 = weight(_text_:und in 339) [ClassicSimilarity], result of:
0.03136187 = score(doc=339,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.26505727 = fieldWeight in 339, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=339)
0.25 = coord(1/4)
- Content
- "- Was steckt hinter Watson? Physisch besteht der Kandidat aus einem Raum voller Server mit fast 3000 Prozessorkernen und 15 Terabyte Speicher, einem Roboterarm, der den Knopf im Studio drückt, und einem Bildschirm mit einer visuellen Darstellung der Rechnerprozesse. - Was weiß Watson? Im Speicher stecken jede Menge Nachschlagewerke, Fachlexika und die komplette Wikipedia, die letzten zehn Jahrgänge der New York Times, Sammlungen von Zitaten und Sprichwörtern, Weltliteratur wie die Theaterstücke Shakespeares und einige Übersetzungen der Bibel. Internet-Zugang hatte Watson während der Show nicht. - Bei so viel Wissen war doch klar, dass Watson gewinnt, oder? Nein. Bei Jeopardy sind die Hinweise auf die Lösung mehrdeutig, ironisch, sprachlich komplex. Anders gesagt: Sie sind in einer Weise formuliert, die Menschen locker verstehen - mit der Computer aber Schwierigkeiten haben. Watsons wichtigste Fähigkeit ist Sprachanalyse. - Wie kann denn ein Computer Wortspiele knacken? Konstruieren wir mal so eine Jeopardy-Aufgabe: "Dieser Frédéric flog auf dem Flügel durch Paris." Um die passende Frage zur vorgebenen Antwort zu finden, muss Watson zunächst aus der als Textdatei übermittelten Aufgabe herausfinden, welche Wörter die entscheidenden Hinweise sind, und erkennen, dass mit "dieser" wohl der Nachname eines "Frédérics" gesucht wird. Rund 1000 unterschiedliche Analyse-Algorithmen laufen über den Text. Aus dem Kontext ermittelt Watson auch, dass zwar "flog" zu "Flügel" im Sinne von Körperteil eines Vogels passt, er aber mit den Begriffen "Frédéric", "Paris" und "Flügel" Ergebnisse bekommt, die mit Ornithologie nichts zu tun haben.
- Wie kommt die Antwort zustande? Die Techniker haben die Maschine mit zehntausenden früheren Jeopardy-Aufgaben gefüttert, aus denen das System "lernte", welche Algorithmen welche Art von Fragen am besten beantworten. Auf dieser Basis durchsucht Watson seine Texte und stellt bis zu 200 Hypothesen auf. - Wie sucht der Rechner die richtige Antwort aus? Watson klopft mit rund 100 Methoden seine Hypothesen ab, unter anderem, indem er den Text bewertet, der die gefundenen Suchwörter umgibt, und weitere Quellen sucht. Sagen wir, er hat einen "Frédéric" entdeckt, der "Chopin" heißt, und Zeitungsrezensionen gefunden über Leute, die "Chopin" auf dem "Flügel" spielen. Dann sucht er in seiner Datenbank nach "Frédéric Chopin Paris". Findet er Treffer in vertrauenswürdigen Quellen, etwa Enzyklopädien, bekommt die Antwort eine gute Bewertung. Die drei Hypothesen mit den meisten Prozentpunkten wurden in der Show für die Zuschauer sichtbar auf dem Bildschirm angezeigt. - Wann drückt Watson auf den Knopf? Bei Jeopardy wird bestraft, wer falsche Antworten gibt. Deshalb meldet sich Watson nur dann für eine Antwort, wenn er sich einigermaßen sicher ist, das heißt, die Bewertung über einem definierten Schwellenwert liegt. Ist er zu niedrig, merkt der Computer: Womöglich habe ich die Frage nicht verstanden, oder die Information ist nicht zuverlässig genug. Watson weiß, wann er zu wenig weiß.
- Was also ist neu an Watson? Im Prinzip nichts. Die verwendeten Techniken zur Sprachanalyse, für Suchmaschinen und Datenbanken gab es für sich genommen schon vorher. Die IBM-Techniker haben die Techniken aber nun clever kombiniert und auf leistungsstarke Rechner gepackt, die viele Operationen parallel und dadurch rasend schnell ausführen können. - Warum tritt Watson nicht gegen andere Rechner an? IBM hat aus früheren Jeopardy-Shows ermittelt, dass das kombinierte Wissen zweier menschlicher Spieler reicht, um rund 85 bis 90 Prozent der Fragen zu beantworten. Selbstbewusst schreiben die Techniker: "IBM hat dieses Leistungsniveau noch bei keinem anderen Computersystem gesehen. Andere Firmen mögen an ähnlichen Techniken arbeiten, aber derzeit sind die besten menschlichen Jeopardy-Spieler die Leute, die man schlagen muss." - Warum heißt Watson Watson? Der Anklang an Doktor Watson, den Assistenten von Sherlock Holmes mag gewollt sein, aber das eigentliche Vorbild trägt keinen Doktortitel. Thomas J. Watson war von 1914 bis 1956 IBM-Präsident."
-
Thomas, C.: Blackout : Leitartikel (2012)
0.01
0.007840468 = product of:
0.03136187 = sum of:
0.03136187 = weight(_text_:und in 882) [ClassicSimilarity], result of:
0.03136187 = score(doc=882,freq=26.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.26505727 = fieldWeight in 882, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=882)
0.25 = coord(1/4)
- Abstract
- Wo das Internet seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur.
- Content
- "Welcher Blackout ist schon originell? Als Bewusstseinsstörung, als echter Aussetzer, ist er eher peinlich - oder auch beunruhigend, da mochte die Definition, wie sie die deutschsprachige Seite von Wikipedia um zwölf Uhr MEZ lieferte, noch so sachlich daherkommen. Während hier vom "plötzlichen Versagen eines Zustandes" die Rede war, führte die englischsprachige Seite ihre Nutzer auf eine dunkle Seite. Der Blackout als Protest. Der Blackout als bewusste Tat. Das zeigt, dass das Internet wahrhaftig ein Tummelplatz ist, der unglaublich absurde Energien zu erzeugen vermag. Es war der erste Blackout dieser Art. Was Google oder Facebook bereits in Aussicht stellten, setzte Wikipedia in die Tat um. Anlass sind zwei US-Gesetzesinitiativen, namentlich bekanntwurde sie als Stop Online Piracy Act (SOPA) und Protect Intellectual Property Act (PIPA). Mit ihnen sollen nicht nur Anstrengungen unternommen, sondern gesetzliche Grundlagen geschaffen werden, solche Webseiten zu sperren, über die Raubkopien etwa von Filmen und Musiktiteln vertrieben werden können. Es geht also, das ist keine originelle Erkenntnis, um nichts weniger als Urheberrechtsfragen, zu denen der Wikipedia-Gründer Jimmy Wales in einem Interview meinte: "Das ist eine ziemlich plumpe Gesetzgebung, die gefährlich für ein offenes Internet ist."
Auch das ist kein origineller Gedanke - aber wie auch? Das hat unmittelbar mit dem Internet selbst zu tun, ist es doch eine Plattform des Recyclings, der nicht abreißenden Vervielfältigung von Informationen und Meinungen. Was im Internet erst in Umlauf ist, wird in Sekundenbruchteilen übernommen - vieles davon unhinterfragt. Was im Internet Meinung ist, spricht nicht zwangsläufig für offene Formen der Kommunikation, auch wenn sie immerzu behauptet werden, gebetsmühlenartig wiederholt werden. Sicher, das Internet ist ein Schauplatz, der Regierungen nicht nur irritiert, sondern ins Wanken gebracht hat, etwa im vergangenen Jahr, man denke nur an die Empörungen und Massenerhebungen in Nordafrika. Dennoch ist das Internet, dem auch der Wikipedia-Gründer Wales huldigt wie einem Fetisch, nicht unter allen Umständen ein Forum der Aufklärung geworden - wenn man darunter weiterhin so etwas wie die Selbsttätigkeit des Denkens versteht, den Versuch, sich seines eigenen Verstandes zu bedienen, der sich orientiert an allgemein verbindlichen Standards. In demokratisch legitimierten Gesetzen kann man solche Standards verbrieft sehen - und dazu zählt, auch das ist kein origineller Gedanke, das Urheberrecht. Dessen Wahrung durch Gesetze vermag mit der ungeheuren Dynamik des Internets nicht Schritt zu halten. Zu dieser Dynamik zählt eine permanent in die Welt gesetzte Selbstlegitimierung des Internets durch seine Protagonisten - ein Freibrief auch für Übertretungen oder Rechtsbrüche, die eine demokratisch herbeigeführte Gesetzgebung zu ahnden hat.
Wales, und sicherlich nicht nur er, ist als Internetaktivist so etwas wie ein Suchmaschinist der Deregulierung von geistigem Eigentum. Wenn obendrein Kritiker der Gesetzes-Initiative des US-Kongresses die vorgesehenen Netzsperren als "Zensur" kritisieren, ist auch das, nun ja, kein eigenständiger Gedanke. Es ist das Ritual in einem Kulturkampf, der - um die Motive nicht aus den Augen zu verlieren - von ökonomischen Interessen beherrscht wird. Keine Frage, ein Medienmogul wie etwa Rupert Murdoch, der die Internetpiraterie auch aus aktuellem Anlass wieder heftig beklagt hat, um Gesetze zur Eindämmung einzuklagen, ist einer der größten Freibeuter. Als Heuchler ist er ein Aktivist. Die Internetkultur hat sich ihre eigenen Nutzungs- und Verhaltensformen geschaffen, angefangen damit, dass in einem "offenen" Internet, in dem Autor und Publikum, Produzent und Nutznießer immer weniger unterscheidbar sind, das Copyright kaum noch "transparent" bleibt. Mit Blick auf das Internet sind immer wieder gewaltige Potenziale und eine schier ungeheure Dynamik angekündigt worden. In der Tat, wo es seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur. Wo doch wir, die Generation Google, zu Virtuosen in der Kunst des Textkopierens geworden sind. Wir, Wikipedia-Aktivisten, wissen um den Satz des Bert Brecht und seiner "laxen Haltung" zum geistigen Eigentum, um ihn täglich mehrfach recycelnd zu exekutieren. Die jahrhundertealte Tradition der Wahrung des geistigen Eigentums beruht auf einer Kulturtechnik. Wenn die englische Wikipediaseite diese Kulturtechnik durch einen Blackout ignoriert, wird damit in der Tat eine längst universelle Bewusstseinsstörung ins Netz gestellt. In dem Blackout findet Wikipedia auch zu sich selbst."
-
¬Das Ende der Bibliothek? : vom Wert der Materialität im virtuellen Zeitalter ; Tagungsband Gotha, April 2010. (2011)
0.01
0.007671107 = product of:
0.030684428 = sum of:
0.030684428 = weight(_text_:und in 1584) [ClassicSimilarity], result of:
0.030684428 = score(doc=1584,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25933182 = fieldWeight in 1584, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1584)
0.25 = coord(1/4)
- Abstract
- Dieser Band versammelt die Beiträge einer Tagung, die im April 2010 in der Forschungsbibliothek Gotha stattgefunden hat. Ziel der Veranstaltung war es, nach dem zukünftigen Wert zu fragen, den Bibliotheken und Archive im Zeitalter der Virtualisierung behalten werden. Diesen immer weiter fortschreitenden Prozess treiben nicht nur diese Institutionen selbst, sondern auch mächtige Quasimonopole wie Google voran, ohne dass über die Implikationen hinreichend reflektiert würde. Zu fragen ist, ob zu den Folgen, die die Virtualisierung für Bibliotheken und Archive haben wird, auch ihre Selbstabschaffung als an Orten fassbare Einrichtungen gehört. Es ist aber auch damit zu rechnen, dass das wissenschaftliche Arbeiten und Denken seine Struktur verändern wird. Vor diesem Hintergrund unternimmt dieser Band eine Würdigung des Analogen und seines fortbestehenden Wertes im Zeitalter der Entmaterialisierung.
- Content
- Aus dem Inhalt: G. Siebeck: Die Vielfalt der Bibliotheken und die Produktion der Verlage - C. Heibach: Über das Problem des Vergessens im digitalen Zeitalter - U. Jochum: Die Selbstabschaffung der Bibliotheken - M. Knoche: Original oder digital? Die Rekonstruktion des verbrannten Buchbestandes in Weimar - B. Fischer: Von der "Handschrift" zum Digitalisat. Kehrseiten der Wissensgesellschaft - A. Schlechter: Archäologisches Objekt, Exemplar, Ensemble. Was bleibt vom alten Buch? - R. Reuß: Das Buch und seine Typographie in Zeiten der Hypnose.
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie - Sonderbände ; 105
-
Engel, F.: Expertensuche in semantisch integrierten Datenbeständen (2015)
0.01
0.007671107 = product of:
0.030684428 = sum of:
0.030684428 = weight(_text_:und in 3283) [ClassicSimilarity], result of:
0.030684428 = score(doc=3283,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25933182 = fieldWeight in 3283, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3283)
0.25 = coord(1/4)
- Abstract
- Wissen ist das intellektuelle Kapital eines Unternehmens und der effektive Zugriff darauf entscheidend für die Anpassungsfähigkeit und Innovationskraft. Eine häufig angewandte Lösung für den erfolgreichen Zugriff auf diese Wissensressourcen ist die Umsetzung der Expertensuche in den Daten der verteilten Informationssysteme des Unternehmens. Aktuelle Expertensuchverfahren berücksichtigen zur Berechnung der Relevanz eines Kandidaten zumeist nur die Information aus Datenquellen (u. a. E-Mails oder Publikationen eines Kandidaten), über die eine Verbindung zwischen dem Thema der Frage und einem Kandidaten hergestellt werden kann. Die aus den Datenquellen gewonnene Information, fließt dann gewichtet in die Relevanzbewertung ein. Analysen aus dem Fachbereich Wissensmanagement zeigen jedoch, dass neben dem Themenbezug auch noch weitere Kriterien Einfluss auf die Auswahl eines Experten in einer Expertensuche haben können (u. a. der Bekanntheitsgrad zwischen dem Suchenden und Kandidat). Um eine optimale Gewichtung der unterschiedlichen Bestandteile und Quellen, aus denen sich die Berechnung der Relevanz speist, zu finden, werden in aktuellen Anwendungen zur Suche nach Dokumenten oder zur Suche im Web verschiedene Verfahren aus dem Umfeld des maschinellen Lernens eingesetzt. Jedoch existieren derzeit nur sehr wenige Arbeiten zur Beantwortung der Frage, wie gut sich diese Verfahren eignen um auch in der Expertensuche verschiedene Bestandteile der Relevanzbestimmung optimal zusammenzuführen. Informationssysteme eines Unternehmens können komplex sein und auf einer verteilten Datenhaltung basieren. Zunehmend finden Technologien aus dem Umfeld des Semantic Web Akzeptanz in Unternehmen, um eine einheitliche Zugriffsschnittstelle auf den verteilten Datenbestand zu gewährleisten. Der Zugriff auf eine derartige Zugriffschnittstelle erfolgt dabei über Abfragesprachen, welche lediglich eine alphanumerische Sortierung der Rückgabe erlauben, jedoch keinen Rückschluss auf die Relevanz der gefundenen Objekte zulassen. Für die Suche nach Experten in einem derartig aufbereiteten Datenbestand bedarf es zusätzlicher Berechnungsverfahren, die einen Rückschluss auf den Relevanzwert eines Kandidaten ermöglichen. In dieser Arbeit soll zum einen ein Beitrag geleistet werden, der die Anwendbarkeit lernender Verfahren zur effektiven Aggregation unterschiedlicher Kriterien in der Suche nach Experten zeigt. Zum anderen soll in dieser Arbeit nach Möglichkeiten geforscht werden, wie die Relevanz eines Kandidaten über Zugriffsschnittstellen berechnet werden kann, die auf Technologien aus dem Umfeld des Semantic Web basieren.
- Content
- Dissertation zur Erlangung des akademischen Grades Doktor-Ingenieur (Dr.-Ing.) der Fakultät für Mathematik und Informatik der FernUniversität in Hagen. Vgl.: http://deposit.fernuni-hagen.de/3042/.
-
Reckwitz, A.: ¬Die Gesellschaft der Singularitäten : zum Strukturwandel der Moderne (2017)
0.01
0.007671107 = product of:
0.030684428 = sum of:
0.030684428 = weight(_text_:und in 28) [ClassicSimilarity], result of:
0.030684428 = score(doc=28,freq=14.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25933182 = fieldWeight in 28, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=28)
0.25 = coord(1/4)
- Abstract
- Das Besondere ist Trumpf, das Einzigartige wird prämiert, eher reizlos ist das Allgemeine und Standardisierte. Der Durchschnittsmensch mit seinem Durchschnittsleben steht unter Konformitätsverdacht. Das neue Maß der Dinge sind die authentischen Subjekte mit originellen Interessen und kuratierter Biografie, aber auch die unverwechselbaren Güter und Events, Communities und Städte. Spätmoderne Gesellschaften feiern das Singuläre. Ausgehend von dieser Diagnose, untersucht Andreas Reckwitz den Prozess der Singularisierung, wie er sich zu Beginn des 21. Jahrhunderts in Ökonomie, Arbeitswelt, digitaler Technologie, Lebensstilen und Politik abspielt. Mit dem Anspruch einer Theorie der Moderne zeigt er, wie eng dieser Prozess mit der Kulturalisierung des Sozialen verwoben ist, welch widersprüchliche Dynamik er aufweist und worin seine Kehrseite besteht. Die Gesellschaft der Singularitäten kennt nämlich nicht nur strahlende Sieger. Sie produziert auch ihre ganz eigenen Ungleichheiten, Paradoxien und Verlierer. Ein wegweisendes Buch.
-
dpa: Benutzer können künftig mit Google sprechen : Konzern stellt Neuerungen auf Entwicklerkonferenz vor (2013)
0.01
0.0076109404 = product of:
0.030443761 = sum of:
0.030443761 = weight(_text_:und in 1765) [ClassicSimilarity], result of:
0.030443761 = score(doc=1765,freq=18.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2572978 = fieldWeight in 1765, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1765)
0.25 = coord(1/4)
- Content
- "Eigentlich müssten die Besucher der GoogleEntwicklerkonferenz I/O in diesem Jahr enttäuscht sein: Alle Spekulationen im Vorfeld der Konferenz über ein neues Android-Betriebssystem sowie über einen Tablet-Computer mit Super-Display erwiesen sich am Mittwoch (Ortszeit) als Luftnummer. Und die über drei Stunden dauernde Eröffnungsveranstaltung wurde auch nicht wie im vergangenen Jahr durch die Aktion mutiger Fallschirmspringer aufgelockert. Sie hatten damals ihren Flug von einem Luftschiff auf das Dach des Konferenzcenters live mit einem Prototypen der Cyberbrille Google Glass als Videostream auf eine riesige Leinwand übertragen. Als Flop wird die Google I/O 2013 aber nicht in die Technik-Geschichte eingehen, ganz im Gegenteil. Rückblickend könnte die Entwicklerkonferenz als der Zeitpunkt eingeschätzt werden, an dem Google die Internet-Suche neu erfunden hat. Für die meisten Internet-Anwender ist die Google-Suche synonym mit dem Eintippen eines Begriffs in einen einfach gestalteten Suchschlitz. Das wird sich ändern. Künftig werden Suchabfragen immer öfter - auch auf dem Desktop-Computer - in gesprochener Sprache erfolgen. Der Befehl "Okay Google" öffnet das virtuelle Ohr. Danach kann man der Suchmaschine wie einem Menschen mündlich eine Frage stellen: "Wie ist das Wetter in Berlin?". Google versteht dann auch die Abschlussfrage "Und in München?" richtig, obwohl in dem Kurzsatz das Wort "Wetter" gar nicht mehr auftaucht. Google-Manager Amit Singhal sieht damit "das Ende der Suche - wie wir sie kennen" in naher Zukunft kommen. Das liegt zum einen an dem Wissensschatz, der sich inzwischen in den Google-Servern angehäuft hat und über Technologien wie den "Google Knowledge Graph" effizient abgerufen werden kann. Dazu kommt aber auch eine "soziale" Komponente, da der US-Konzern fast alles über die Vorlieben seinen Anwender weiß - zumindest wenn diese bereit sind, diese mit ihm zu teilen. Das führt dazu, dass es künftig nicht mehr eine einzige universelle Internet-Suche gibt, sondern unzählige verschiedene Suchergebnisse, die stets auf die Präferenzen der User angepasst sind.
Diese "soziale" Ebene legt Google künftig über quasi alle seine Produkte. So zeigen die neu gestalteten Google Maps einem Kunstliebhaber einen Stadtplan mit allen Galerien und Museen, während einem Shopaholic dagegen bevorzugt Boutiquen und Kaufhäuser auf denselben Karten ausschnitt gezeichnet werden. Außerdem werden Informationen über Unfälle auf den Straßen direkt in Google Maps eingebunden . Zudem wurde ein neuer Streaming-Musikdienst vorgestellt, bei dem die Songs direkt aus dem Netz abgespielt werden. Das Abo-Angebot mit dem Namen Google Play Music All Access ist zunächst in den USA verfügbar. Für die Google-Anwender heißt dies zunächst, dass die Dienste des Internet-Giganten im Zweifelsfall noch praktischer werden als sie es heute ohnehin schon sind. Gleichzeitig müssen sich die User aber auch vor Augen halten, wie sehr sie sich vom Wohl und Wehe eines einzelnen Un- ternehmens abhängig machen und welche Datenschätze sie diesem Konzern anvertrauen. Diese Befürchtungen dürften auch der Grund dafür gewesen sein, dass Google-Chef Larry Page sich zum Ende der Keynote mit der grundsätzlichen Frage beschäftigte, welche Ängste neue Technologien wie die Cyberbrille Google Glass bei Menschen auslösen können. Page räumte ein, dass die rasanten Veränderungsprozesse Menschen in eine unkom- fortable Lage versetzten. "In der Technologie(entwicklung) sollten wir einige sichere Plätze haben, an denen wir neue Dinge ausprobieren und herausfinden können, wie der Effekt auf die Gesellschaft und auf die Menschen ist. Dazu sollten wir nicht gezwungen sein, diese Neuheiten auf der ganzen Welt ausrollen." "
-
Harari, Y.N.: Homo deus : eine Geschichte von Morgen (2017)
0.01
0.0076109404 = product of:
0.030443761 = sum of:
0.030443761 = weight(_text_:und in 66) [ClassicSimilarity], result of:
0.030443761 = score(doc=66,freq=18.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.2572978 = fieldWeight in 66, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=66)
0.25 = coord(1/4)
- Abstract
- In seinem Kultbuch Eine kurze Geschichte der Menschheit erklärte Yuval Noah Harari, wie unsere Spezies die Erde erobern konnte. In "Homo Deus" stößt er vor in eine noch verborgene Welt: die Zukunft. Was wird mit uns und unserem Planeten passieren, wenn die neuen Technologien dem Menschen gottgleiche Fähigkeiten verleihen - schöpferische wie zerstörerische - und das Leben selbst auf eine völlig neue Stufe der Evolution heben? Wie wird es dem Homo Sapiens ergehen, wenn er einen technikverstärkten Homo Deus erschafft, der sich vom heutigen Menschen deutlicher unterscheidet als dieser vom Neandertaler? Was bleibt von uns und der modernen Religion des Humanismus, wenn wir Maschinen konstruieren, die alles besser können als wir? In unserer Gier nach Gesundheit, Glück und Macht könnten wir uns ganz allmählich so weit verändern, bis wir schließlich keine Menschen mehr sind.
- Content
- "In einer verblüffenden Tour d'Horizon durch die Menschheitsgeschichte beschreibt Harari, wie der Mensch in einem Akt wachsender Selbstermächtigung zum Homo Deus avanciert." (Adrian Lobe, Zeit Online, 10. April 2017) "(Harari) hat ein anmaßendes Buch geschrieben. Und ein aufregendes." (Erik Raidt, Stuttgarter Nachrichten Online, 31. März 2017) "Intelligent, scharfsinnig und manchmal sogar überraschend witzig (...) eröffnet einen ganz anderen Blick auf Geschichte." (Klaus Bittermann, taz literataz, 22. März 2017) "Überraschend, informativ, abwechslungsreich und leicht zu lesen." (Hildegard Lorenz, Münchner Merkur, 21. März 2017) "Sehen, wie die Welt ist, ohne auf die Bremse zu treten. Das ist der Sound von Yuval Noah Hararis 'Homo Deus'." (Adolf Holl, Die Presse, 18. März 2017) "Hararis packendes Buch ist ein Bekenntnis zum Humanismus." (Thomas Vasek, P.M., 10. März 2017) "Überaus anregende und fesselnde Lektüre." (Wolfgang Schneider, SWR2, 19. Februar 2017) "Fulminant, klug und düster." (Deutschlandradio Kultur, März 2017)
-
Stäcker, T.: Wie schreibt man Digital Humanities richtig? : Überlegungen zum wissenschaftlichen Publizieren im digitalen Zeitalter (2013)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 1739) [ClassicSimilarity], result of:
0.030131513 = score(doc=1739,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 1739, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1739)
0.25 = coord(1/4)
- Abstract
- Die Digital Humanities sind in aller Munde. Die Beschäftigung mit den digitalen Geisteswissenschaften eröffnet aber nicht nur neue Forschungsgebiete, sondern bringt auch eine neue Art zu schreiben mit sich, weil wissenschaftliche Publikationen selbst Gegenstände der digital humanities sind. Elektronische Publikationen, die im Internet erscheinen, müssen, anders als ihre gedruckten Vorgänger dem Umstand Rechnung tragen, dass man sie nicht nur lesen, sondern maschinell bearbeiten kann. Das hat beträchtliche Auswirkungen auf die Texte, mit denen sich auf diese Weise neue Funktionen verbinden, aber auch auf das akademische Publikationswesen, das sich auf gewandelte Produktions- und Distributionsbedingungen einstellen muss. Der erste Teil des Beitrages widmet sich dieser neuen Art zu schreiben, indem er die technischen und formalen Voraussetzungen für elektronische Publikationen analysiert. Der zweite Teil versucht unter der Überschrift "Open Access - Open Source" die Anforderungen und Auswirkungen elektronischen Publizierens auf das akademische Publizieren im Ganzen auszuloten.
-
Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 5095) [ClassicSimilarity], result of:
0.030131513 = score(doc=5095,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 5095, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5095)
0.25 = coord(1/4)
- Abstract
- Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
-
Walravens, H.: ISBN - International Standard Book Number : bibliography ; literature on the ISBN and ISMN (International Standard Music Number) from all over the world : compiled and with a review about 40 years ISBN = ISBN - Internationale Standard Buchnummer (2011)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.030131513 = score(doc=23,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 23, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Innovative Ideen setzen sich in den meisten Fällen schwer durch. Die elektronische Revolution erfordert neues Management und neue Organisation auf dem Informationsmarkt. Ein Instrument, das zunehmend an Bedeutung gewann, ist die ISBN Nummer, die jedem Buch seine Individualsignatur gibt und daher zur Globalisierung des Marktes beitrug. Hartmut Walravens hat die Entwicklung der ISBN maßgeblich beeinflusst, die durch die umfassende Bibliographie und einen Überblick dokumentiert wird.
-
Terliesner, J.: Information Retrieval in Wikis : wie können klassische Methoden des Information Retrievals die Suchfunktion eines Wikis bereichern? (2010)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 491) [ClassicSimilarity], result of:
0.030131513 = score(doc=491,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 491, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=491)
0.25 = coord(1/4)
- Abstract
- Wikis erfreuen sich als gemeinschaftliche Wissenssammlungen wachsender Beliebtheit. Wissenssammlungen können jedoch nur effektiv genutzt werden, wenn geeignete Suchwerkzeuge zur Verfügung stehen, die alle Besonderheiten der Suchumgebung berücksichtigen. Allerdings liefern Suchfunktionen in Wikis häufig nicht relevante Ergebnisse. Dieser Artikel beschreibt den Aufbau und die Funktionsweise einer optimierten Suchmaschine für Wikis, mit welcher dieser Missstand beseitigt werden soll. Um ein Suchergebnis als Ranking präsentieren zu können, muss dies nach bestimmten Kriterien erfolgen. Viele Kriterien aus dem Web können in Wikis nicht übernommen werden. Deshalb ist eine genaue Analyse der Struktur von Wikis erforderlich. Es wird beschrieben wie Suchergebnisse in Clustern dargestellt werden können, die auf der besonderen Struktur von Wikis beruhen. Dieser Artikel bildet die theoretische Grundlage für weitere Forschung, in der die vorgestellten Thesen analysiert werden und durch einen Retrievaltest bestätigt werden sollen.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.2, S.117-121
-
Zapilko, B.: Dynamisches Browsing im Kontext von Informationsarchitekturen (2010)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 731) [ClassicSimilarity], result of:
0.030131513 = score(doc=731,freq=6.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 731, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=731)
0.25 = coord(1/4)
- Abstract
- Wissenschaftliche Fachportale bieten Nutzern in der Regel ein umfangreiches Angebot an verschiedenen Informationen und Dienstleistungen. Die Organisation dieser Angebotsvielfalt lässt sich jedoch nur schwer oder gar nicht mit softwareergonomischen Richtlinien bezüglich Navigations- und Menüstrukturen vereinen. Nutzern wird zudem oft eine feste inhaltliche Sicht auf die enthaltenen Informationsangebote präsentiert, von der angenommen wird, dass sie all ihre Informationsbedürfnisse befriedigt. Der folgende Beitrag zeigt, wie ein Referenzmodell für die Informationsarchitektur in Fachportalen die Informationsangebote als dynamisches Browsing in Form eines Produktkataloges integriert und verschiedene Sichten auf die Angebote ermöglicht. Eine abschließende Evaluation des Konzepts zeigt, dass die Nutzer mithilfe des Produktkataloges die Informationsangebote der Website einfacher finden können als mit einem herkömmlichen statischen Menü.
-
Jötten, F.: Auf der Suche nach der göttlichen Zahl : Wie ein Spielzeug einen Darmstädter Mathematiker ein Erwachsenenleben lang nicht mehr losließ (2010)
0.01
0.0075328783 = product of:
0.030131513 = sum of:
0.030131513 = weight(_text_:und in 907) [ClassicSimilarity], result of:
0.030131513 = score(doc=907,freq=24.0), product of:
0.118321106 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05334828 = queryNorm
0.25465882 = fieldWeight in 907, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=907)
0.25 = coord(1/4)
- Content
- "Ein kleiner Junge reicht einem Roboter einen verdrehten Zauberwürfel. Der hebt den Würfel vor sein Blechgesicht, wendet ihn hin und her - und beginnt dann blitzschnell mit seinen Metallarmen zu drehen, bis nur noch eine Farbe pro Seite zu sehen ist. Das Internet ist voller solcher Videos von Menschen und Maschinen, die einen Zauberwürfel wieder in die Ausgangsposition bringen. Ein dreijähriges Kind löst die Aufgabe unter zwei Minuten, ein 18-jähriger Niederländer schafft es in sieben Sekunden, ein Roboter aus Lego in zehn, ein Franzose mit verbundenen Augen in 23.
Forschen nach der Formel Die Wissenschaft tüftelte seit 30 Jahren an seinem Rätsel - jetzt ist es gelöst. Die so genannte Gotteszahl ist gefunden. So nennen die Wissenschaftler die kleinstmögliche Anzahl von Zügen, die es braucht, um einen Würfel aus jeder denkbaren Position in den Ausgangszustand zu drehen. Das Zentrum der europäischen Zauberwürfelforschung ist ein Arbeitszimmer in Darmstadt. Herbert Kociemba, 56, Lehrer für Physik und Mathematik und einer derjenigen, die an dem jüngsten Forschungserfolg beteiligt waren, sitzt an seinem Schreibtisch. Neben ihm steht seine Zauberwürfel-Sammlung, daneben eine Plastiktüte mit winzigen, bunten Kacheln - damit ersetzt er die Aufkleber auf seinen Würfeln: Das sieht besser aus und ist haltbarer. Wenn es um Rubik's Cube geht, merkt man, dass der für ihn mehr ist, als nüchterne Mathematik. "Der Würfel knarrt so schön, wenn man ihn dreht", sagt er und lächelt verzückt. "Er wird nie vergessen, weil er einfach genial ist." Bei der Markteinführung hatte Kociemba gerade begonnen als Lehrer zu arbeiten. "In den Noten-Konferenzen strickten die Frauen - und männliche Kollegen drehten am Zauberwürfel", erinnert er sich. Heute sitzt Kociemba vor seinem Computer, auf dem Bildschirm bunte Quadrate und graue Schaltflächen: das ist "Cube Explorer", ein Computerprogramm, das Kociemba 1992 erfand. Mit der neuen Version kann der Benutzer per Webcam jede Würfel-Position einlesen und sich berechnen lassen, mit welchen Drehungen man ihn in die Ausgangsposition (alle Seiten des Würfels einfarbig) zurückbringen kann.
"Im Durchschnitt schafft das Programm das mit 19 Zügen", sagt Kociemba. Für Würfelfans ist das Programm essenziell, sie dankt dem Mathematiker frenetisch in Internetforen - die meisten Speedcuber, diejenigen, die den Würfel in möglichst kurzer Zeit lösen wollen, berechnen sich mit Cube Explorer die optimalen Drehkombinationen. "Aber eigentlich hat mich das zuletzt nicht mehr interessiert", sagt Kociemba. Gemeinsam mit dem kalifornischen Informatiker Tom Rokicki und dem Mathematiker Morley Davidson von der Kent State University in Ohio wollte er "Gottes Zahl" finden - den optimalen Weg mit möglichst wenigen Schritten um den Zauberwürfel zu lösen. Der Cube kann 43 Trillionen Positionen einnehmen. Für jede Stellung gibt es 18 Möglichkeiten für den ersten Zug - und dann wieder 18 für jeden folgenden. Wollte man die Gotteszahl so berechnen, dass man für jede Würfelstellung die optimalen Züge berechnet, müssten fünf Millionen Computer fünf Millionen Jahre lang rechnen - unmöglich. 1992 kam für Kociemba der erste Durchbruch bei der Suche nach der Gotteszahl. Er schrieb einen Zwei-Phasen-Algorithmus. Der Trick: Der Würfel wird aus einer beliebigen Anfangsstellung in maximal zwölf Zügen in eine Zwischenformation gebracht, das schränkt die Anzahl der verbleibenden Möglichkeiten auf 20 Milliarden ein, was Computer heute gut bewältigen. In einer zweiten Phase wird er dann in die Zielposition (alle Seiten des Würfels einfarbig) gebracht. Dazu braucht es höchstens 18 Drehungen, in der Summe sind also nach diesem Modell höchstens 30 notwendig. In den vergangenen 18 Jahren reduzierten die Forscher die Zahl. 2008 zeigte Rokicki, dass sie nicht größer als 25 sein kann. Er nutzte Kociembas Weg, unterteilte die Würfelpositionen aber in Gruppen, so dass er nicht jede einzeln berechnen musste. Dann fehlte ihm nur noch Rechnerleistung. Zunächst stellte Sony Pictures nachts die Computer zur Verfügung, auf denen sonst Trickfilme entstehen. Dann half Google mit seiner riesigen Rechner-Kapazität. Jetzt steht fest: Der Zauberwürfel kann, egal wie er verdreht ist, in 20 Zügen in die Zielposition gebracht werden. "Ein moderner Desktop-PC hätte für die Rechenarbeit 35 Jahre gebraucht", sagt Rokicki."