Search (17 results, page 1 of 1)

  • × author_ss:"Charlier, M."
  1. Radtke, A.; Charlier, M.: Barrierefreies Webdesign : attraktive Websites zugänglich gestalten ; [berücksichtigt detailliert BITV ; echter Workshop von Analyse bis Relaunch ; im Web: authentisches Praxisprojekt im Vorher-Nachher-Zustand] (2006) 0.01
    0.01361755 = product of:
      0.0544702 = sum of:
        0.0544702 = weight(_text_:und in 635) [ClassicSimilarity], result of:
          0.0544702 = score(doc=635,freq=50.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.42853346 = fieldWeight in 635, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.02734375 = fieldNorm(doc=635)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Buch beweist: Barrierefreiheit und attraktives Webdesign schließen sich nicht aus! Nach einer Beschreibung der Grundlagen (Behinderungen, mit denen Webdesigner bei ihren Anwendern rechnen müssen, technische Lösungen wie Braille-Zeile, rechtliche Vorgaben etc.) entwickeln die Autoren an einem konkreten Praxisprojekt, wie eine nicht barrierefreie Website barrierefrei gemacht wird. Hierbei beschreiben sie ausführlich die Analyse- und Konzeptionsphase, Design-Kriterien, die technische Umsetzung, Nutzer-Tests sowie die vor und nach dem Relaunch involvierten Prozesse. Ein Kapitel zur barrierefreien Gestaltung einer CMS-basierten Website (Joomla!, TYPO3) rundet das Buch ab.
    Classification
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 58(2007) H.5, S.318 (W. Schweibenz): "Der Titel des Buches verspricht, dass es möglich sei, Web-Sites nicht nur barrierefrei, sondern auch attraktiv zu gestalten. Dieses Versprechen lösen Angie Radtke und Michael Charlier mit einer DemoWeb-Site für die fiktive Gemeinde BadSeendorf (Internet, URL http://www.badseendorf.de) ein. Dort werden einander zwei Versionen gegenübergestellt, wobei der Ausgangspunkt ein barrierebehaftetes Design ist, das durch eine barrierearme Version ersetzt wird. Diese beiden Beispiele wären für sich genommen bereits sehr hilfreich bei der Auseinandersetzung mit dem Thema Barrierefreiheit. In Kombination mit dem zugehörigen Buch haben Radtke und Charlier eine umfassende Einführung geschaffen, die sowohl für die eigenständige Einarbeitung in die Thematik als auch für die Verwendung in der Lehre sehr geeignet ist. In einem knappen theoretisch ausgerichteten Grundlagenteil werden Fragen behandelt wie beispielsweise was Barrierefreiheit ist und wem sie nützt, warum Zugänglichkeit und ansprechendes Design kein Widerspruch sind und welche gesetzlichen Vorgaben gelten. Im Mittelpunkt des umfangreichen Praxisteils steht die genannte Web-Site der fiktiven Gemeinde Bad-Seendorf. Ausgehend von dem barrierebehafteten Design werden an konkreten Beispielen die Probleme bestimmter Nutzergruppen analysiert, zu denen neben den üblicherweise dargestellten Betroffenen auch die Altersgruppe 50plus zählt, die häufig vernachlässigt wird. Weiterhin wird in einzelnen Kapiteln eine Analyse von Barrieren durchgeführt, sowie Maßnahmen zur gezielten Vermeidung von Zugangsblockaden und Zugangserschwernissen aufgezeigt, wobei auch auf multimediale Inhalte und Sonderfälle wie PDF, Flash, und Videos in Deutscher Gebärdensprache eingegangen wird. Eine kurze Beschreibung des Einsatzes von Content-Management-Systemen für barrierefreie Web-Angebote legt den Schwerpunkt auf die Systeme Joomla! und TYPO3.
    Insgesamt zeichnet sich die Kombination von Buch und Web-Site durch einen hohen Praxisbezug aus. Die Texte sind leicht zu lesen, die Sprache ist einfach und verständlich. Zahlreiche farbliche und grafisch gestaltete Randnotizen enthalten Verweise und Erläuterungen und stellen Bezüge her, sowohl zu den Beispielen als auch zu den einzelnen Prüfpunkten der Barrierefreie Informationstechnik-Verordnung (BITV). In den Text integrierte Abbildungen sowie Hinweise auf Benutzungsprobleme für Menschen mit Behinderungen und Testmöglichkeiten machen die Problematik von Barrieren deutlich, auch für Leser, welche die Vorteile einer barrierearmen Gestaltung von Web-Sites verstehen wollen, ohne sich auf die Ebene des Quellcodes begeben zu müssen, wobei die Beispiele durchaus eine tiefergehende Auseinandersetzung mit der Programmierung erlauben."
    RVK
    AP 15860 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Formen der Kommunikation und des Kommunikationsdesigns / Kommunikationsdesign in elektronischen Medien
    ST 252 Informatik / Monographien / Software und -entwicklung / Web-Programmierung, allgemein
  2. Charlier, M.: Alles oder nichts : Filter gegen Sex und Gewalt blockieren die politischen Gegner oft gleich mit - und werden von Kindern überlistet (2001) 0.01
    0.0134778805 = product of:
      0.053911522 = sum of:
        0.053911522 = weight(_text_:und in 5533) [ClassicSimilarity], result of:
          0.053911522 = score(doc=5533,freq=6.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.42413816 = fieldWeight in 5533, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=5533)
      0.25 = coord(1/4)
    
    Abstract
    Wenn Filter auch nur die kleinste Chance haben sollen, wird man die Bewertungen obligatorisch machen und ihre Korrektheit überwachen müssen. Das Internet wäre danach nicht mehr das, was es heute ist
  3. Charlier, M.: Heroin und Plutonium (1996) 0.01
    0.013205572 = product of:
      0.052822288 = sum of:
        0.052822288 = weight(_text_:und in 4143) [ClassicSimilarity], result of:
          0.052822288 = score(doc=4143,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.41556883 = fieldWeight in 4143, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4143)
      0.25 = coord(1/4)
    
    Abstract
    Artikel zu Verschlüsselungsmethoden (u.a. PGP) und Bezugsquellen
  4. Charlier, M.: ¬Das Netz der Netze wird neu geknüpft : Peer to peer oder Person to person: wie sich das Internet gegen Zensurgelüste wehrt (2000) 0.01
    0.011672186 = product of:
      0.046688743 = sum of:
        0.046688743 = weight(_text_:und in 1982) [ClassicSimilarity], result of:
          0.046688743 = score(doc=1982,freq=18.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3673144 = fieldWeight in 1982, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0390625 = fieldNorm(doc=1982)
      0.25 = coord(1/4)
    
    Abstract
    "Napster - das ist nichts anderes als Diebstahl", schimpft Hilary Rosen, Chef des Verbands der US-Plattenindustrie RIAA. Im amerikanischen Wahlkampf war schon von Kriminellen die Rede, die endlich hinter Gitter gehören". An Stammtischen und in Rechtsanwaltskanzleien gingen die Wogen hoch. Auch Computerfachleute betrachten das Napster-Prinzip Jeder mit jedem" aufmerksam - allerdings wohl gesonnen. Sie hoffen, damit die Internet-Technik auf eine neue Grundlage zu stellen - ohne überlastete Server als Engpässe im Datenstrom. P2p heißt der Trend - und schon der Versuch, die Abkürzung aufzudröseln, lässt ahnen, dass die Sache schwierig ist. Peer to peer entschlüsseln die einen; das zielt auf die technische Ebene und meint, in einem Netzwerk tauschen Computer die Daten von gleich zu gleich" aus, ohne Zentrale. Person to person ist die andere Lesart. Sie meint technisch das Gleiche, betrachtet die Sache aber unter dem Aspekt, was Menschen damit für tolle Dinge anstellen können - napstern etwa, ohne Rücksicht auf das Urheberrecht und ausgefeilte Vertriebsstrategien der Plattenlabels. Dabei ist Napster nicht einmal echtes p2p. Es gibt immer noch eine Zentrale, die man schließen und so das System abschalten kann. Damit ähnelt Napster dem Internet, das zwar nach seiner technischen Grundstruktur ein Netz aus gleichberechtigten Computern ist, dessen praktische Nutzbarkeit aber von vielen Knoten und Zentralrechnern abhängt: Ohne den zentral und streng hierarchisch organisierten Domain Name Service (DNS) könnten wir nicht www.fr-aktuell.de anwählen, sondern müssten uns mit Zahlenmonstern wie 194.175.173.20 herumärgern. Kein Wunder also, dass die US-Regierung den DNS fest im Griff hält und ab und zu auch mal dafür sorgt, dass eine unliebsame Adresse aus diesem Verzeichnis gestrichen wird - beispielsweise der Satireserver Vote-Auction.com, der derzeit nur unter http://162.116.31.68 erreichbar ist
  5. Charlier, M.: Wer abonniert schon Mickeymaus plus Bill Gates? : immer mehr Online-Dienste mit neuen Angeboten und Strategien erzeugen Goldgräberstimmung im Cyberspace (1995) 0.01
    0.011004643 = product of:
      0.04401857 = sum of:
        0.04401857 = weight(_text_:und in 2683) [ClassicSimilarity], result of:
          0.04401857 = score(doc=2683,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34630734 = fieldWeight in 2683, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=2683)
      0.25 = coord(1/4)
    
    Abstract
    Trenddarstellung zu Entwicklungen uf dem Markt der Datennetze: Partnerschaft zwischen Bertelsmann, Telekom, American Online und Axel Springer
  6. Charlier, M.: ¬Der erste große Crash in der Geschichte des Internet : Es gibt keinen Kontrollmechanismus, der Pannen rechtzeitig erkennen und die Ursachen diagnostizieren könnte (1997) 0.01
    0.011004643 = product of:
      0.04401857 = sum of:
        0.04401857 = weight(_text_:und in 107) [ClassicSimilarity], result of:
          0.04401857 = score(doc=107,freq=4.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34630734 = fieldWeight in 107, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=107)
      0.25 = coord(1/4)
    
    Footnote
    Bericht über einen Netzausfall in der dritten Juli-Woche, hervorgerufen durch einen Stromausfall und nachfolgende falsche Kommandos an einen Root-Name-Server
  7. Charlier, M.: Politik online : nicht immer auf Draht (1995) 0.01
    0.010894041 = product of:
      0.043576162 = sum of:
        0.043576162 = weight(_text_:und in 6051) [ClassicSimilarity], result of:
          0.043576162 = score(doc=6051,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.34282678 = fieldWeight in 6051, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.109375 = fieldNorm(doc=6051)
      0.25 = coord(1/4)
    
    Abstract
    Telekommunikation erweitert die Demokratie. Über Linksysteme, Mailboxen, Info-Kioske und Minister am Datennetz
  8. Charlier, M.: Listenkultur (2003) 0.01
    0.01032327 = product of:
      0.04129308 = sum of:
        0.04129308 = weight(_text_:und in 1305) [ClassicSimilarity], result of:
          0.04129308 = score(doc=1305,freq=22.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3248651 = fieldWeight in 1305, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=1305)
      0.25 = coord(1/4)
    
    Content
    "Bei all den bunten Seiten übersieht man leicht, dass das Internet größer ist als das Web. Wirtschaftlich gesehen ist die E-Mail mindestens so bedeutend wie das WWW Leute, die beruflich mit dem Netz zu tun haben, verbringen mit der Post mehr Zeit als beim Surfen, und auch für Privatleute stehen Mails nun an erster Stelle (www. daserste.de/intern/entwicklung2002.pdf). Auf der Basis der guten alten Mail hat sich eine eigene Kultur im Netz entwickelt: Mailinglisten. Technisch sind das einfache Verteiler. Jede Nachricht geht an alle Teilnehmer der Liste, jeder kann alles lesen und beantworten - notfalls auch privat (fte.tegtmeyer.net/ml.html). Kein Thema ohne Liste: Briefmarken, Brieftauben, Blindenhunde, Blumenzüchter - alles vertreten. Wie viele solche Listen es gibt, weiß niemand; allein in Deutschland ist es bestimmt eine sechsstellige Zahl. So einfach die Technik der Listen ist, so kompliziert ist oft ihre soziale Struktur. Da gibt es Platzhirsche, die sagen, wo's langgeht, und Elche oder Trolle, die liebend gerne Sand ins Getriebe werfen - und genüsslich zusehen, wie es knirscht und klemmt. Hinterbänkler gibt es in Massen, man liest nie etwas von ihnen - höchstens anderswo: Dort geben sie das in der Liste Aufgeschnappte als Eigenes aus. Oder wenn es um Fachlisten geht: verkaufen es gegen teures Beraterhonorar. Bis sie beim Mogeln ertappt werden. Auf den ersten Blick geht es da ein bisschen zu wie in einer Schulklasse, nur dass viele Teilnehmer zwischen 30 und 50 Jahren alt sind. Selbst das, was spielerisch aussieht, hat oft nicht nur spielerischen Hintergrund. Als der Gründer und Verwalter einer 2000 Mitglieder starken Webdesign-Liste nach fünfeinhalb Jahren sein Amt niederlegte, wurde eindrucksvoll sichtbar, wie viel Energie solch ein Engagement verlangt - und welche Wirkung man damit entfalten kann: Zehntausende Websites würden schlechter aussehen, hätte den Gestaltern der Austausch gefehlt. Aber wie gesagt: Es muss nicht immer Engagement und Wirkung sein, im Netz der Listen gibt es ungezählte Möglichkeiten. Wer im Web zu viel Kommerz und zu wenig Kommunikation findet, kann ja mal in einer Suchmaschine sein Interessengebiet und "Mailingliste" eingeben. So findet man zwar nicht alles - nicht jede Liste hat eine Homepage im Web. Aber allemal mehr als genug."
  9. Charlier, M.: Pingpong mit Pingback : Lass mich Deine Suchmaschine sein: Webseiten finden neue Wege der Vernetzung (2003) 0.01
    0.00962513 = product of:
      0.03850052 = sum of:
        0.03850052 = weight(_text_:und in 1475) [ClassicSimilarity], result of:
          0.03850052 = score(doc=1475,freq=34.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.3028952 = fieldWeight in 1475, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=1475)
      0.25 = coord(1/4)
    
    Abstract
    Die Suchmaschine Google erfasst in ihren Datenbanken nach eigener Auskunft mehr als zwei Milliarden Webseiten. Ob das ein Drittel oder nur ein Viertel aller bestehenden Seiten ist, bleibt umstritten. Aber auch so ergeben Suchanfragen schon eine nicht mehr zu bewältigende Zahl an Treffern - die meisten allerdings weit am Thema vorbei. Um die Seiten, die ihnen einmal positiv aufgefallen sind, wiederzufinden, sammeln fleißige Websurfer Tausende von Bookmarks. Und dann finden sie sich in ihren Lesezeichen nicht mehr zurecht. Information vom Rauschen zu trennen und den Reichtum des Netzes zu erschließen, wird immer schwieriger. Es gibt diverse Projekte, die auf eine Verbesserung dieser Situation abzielen. Die meisten werden noch Jahre bis zum Abschluss benötigen und dann vermutlich auch nur gegen Bezahlung nutzbar sein. Deshalb wird an den Graswurzeln und noch tiefer im Untergrund des Webs derzeit mit technischen Verfahren experimentiert, die auf neuartige Weise die Bildung von persönlichen Informationsnetzen möglich machen. Das ist kostenlos, aber noch nicht so leicht anzuwenden. Da ist z.B. die Blogger-Szene (www.blogworld.de). Blogs sind tagebuchartig geführte und oft mehrfach täglich aktualisierte private Webseiten, auf denen sich Menschen mit gemeinsamen technischen, beruflichen oder persönlichen Interessen treffen. Dort sieht man immer öfter einen kleinen roten Button mit den drei Buchstaben: XML - eine prächtige Kollektion davon bietet der "Hirschgarden" auf http://radio.weblogs.com/0117605/. Wenn man darauf klickt, erscheint eine mehr oder weniger rätselhaft ausgezeichnete Datei, die offensichtlich Informationen zu dieser Seite enthält. Diese Dateien sind so genannte RSS-Feeds, was soviel heißt wie: Lieferanten von angereicherten Seiten-Inhaltsangaben (Rich Site summaries. Das "angereichert" bezieht sich darauf, dass auch Bilder oder Sounddateien angelinkt sein können). Für die Besucher, die schon auf der Seite sind, haben diese kaum entzifferbaren Dateien keinen Wert. Sie sind bestimmt zur Auswertung durch so genannte RSS-Reader - und damit wird die Sache spannend. Wer will, kann sich einen solchen Reader - im Netz werden mehrere davon zum kostenlosen Download angeboten, z.B. auf www.feedreadercom - auf seinem Rechner installieren. Dieser Reader kann die Feeds in einer vernünftig lesbaren Form darstellen; meistens so, wie man das von Mailprogrammen kennt: Links eine Liste der Absender, rechts oben die Überschriften der einzelnen Summaries. Und wenn man diese anklickt, erscheint rechts unten eine Inhaltsangabe des zur jeweiligen Überschrift gehörenden Artikels. Zum Reader gehört eine Liste, in der einzutragen ist, welche Webseiten das Programm - unter Umständen mehrmals täglich - vollautomatisch besuchen soll, um dort die jeweils neuesten Inhaltsangaben abzuholen. Damit ist man jederzeit bestens darüber im Bilde, was auf den wichtigen Seiten geschieht. Technisch geht die Initiative dabei immer vom jeweiligen Anwender aus, aber praktisch wirkt das so, als ob die Informationslieferanten ihn jedesmal benachrichtigen, wenn es etwas neues gibt. Der Anbieter muse natürlich dafür sorgen, dass sein Newsfeed immer aktuell und aussagekräftig gestaltet ist. Für einige Blogs gibt es Software, die das vollautomatisch erledigt. Eine rundum feine Sache also, die bald wohl nicht allein von Bloggern und Nachrichtenagenturen eingesetzt werden. Noch weitreichender sind die Veränderungen, die sich - ebenfalls zunächst in der Welt der Blogs - unter Stichworten wie Trackback oder Pingback ankündigen.
    - Links im Rückwärtsgang - Dahinter stehen unterschiedliche technische Verfahren, die aber praktisch auf das Gleiche hinauslaufen: Während Links im www bisher eine buchstäblich einseitige Angelegenheit waren, werden sie nun zweiseitig. Bisher hat derjenige, der "gelinkt worden" ist, davon zunächst einmal gar nichts erfahren. Jetzt sorgt Pingback dafür, dass auf der gelinkten Seite automatisch ein Rückwärts-Link auf die linkende Seite eingerichtet wird, zumindest, wenn beide Webseiten mit der entsprechenden Technik ausgerüstet sind. Natürlich gibt es keinerlei Zwang, sich diesem System anzuschließen. Wer nicht möchte, dass plötzlich Rückwärts-Links auf seinen Seiten auftauchen, richtet die Software einfach nicht ein. Man braucht nicht viel Surferfahrung, um zu ahnen, dass dieses Ping-Pong-Spiel mit Links dem Austausch von Informationen und Meinungen eine ganz neue Dimension eröffnen können - zumindest dann, wenn genug Webseiten mitmachen. Dann wird man auf vielen Webseiten nicht nur Links auf eventuell genutzte Quellen, sondern auch auf Anwender finden können - also auf andere Seiten, deren Betreiber diesen Inhalt für interessant und wichtig genug hielten, um ein Link darauf zu setzen. So entsteht eine Spur, der man nicht nur wie bisher bestenfalls rückwärts, sondern auch vorwärts folgen kann. Das Thema erschließt sich in vielen Varianten und Entwicklungsstadien. Man wird den Weg eines Themas oder einer Information durch das Netz verfolgen können und dabei vermutlich vielen Seiten be-gegnen, die ähnliche Interessen bedienen, die man durch Suchmaschinen nie gefunden hätte. Das "persönliche Netz" wird enger geknüpft, die Bedeutung der Suchmaschinen und ihrer Defizite wird geringer. An die Stelle mechanischer Sucherei treten lebendige Zusammenhänge. Noch ist das Zukunftsmusik. Man findet zwar schon recht viele Blogs, die ihre Aufnahmebereitschaft für Rückwärtslinks signalisieren, aber erst wenige, bei denen diese Möglichkeit auch genutzt wird. Die kritische Masse, ohne die das System seine Vorteile ausspielen könnte, ist anscheinend noch nicht erreicht. Aber die ständig verbesserte Anwendbarkeit der Software und der Umstand, dass sie nichts kostet, machen Lust, es einmal auszuprobieren. Und in dem Maß, in dem Suchmaschinen die Erwartungen immer weniger erfüllen und am Ende noch Geld für gute Positionierungen nehmen, wird es gerade für kleinere Anbieter - nicht nur im Hobby-Bereich - immer interessanter, neue Wege der Vernetzung zu erproben.
  10. Charlier, M.: Im Cyberspace wird umgebaut : Online-Dienste kämpfen mit neuen Angeboten und immer aufwendigerer Technik um neue Kunden (1996) 0.01
    0.009337749 = product of:
      0.037350997 = sum of:
        0.037350997 = weight(_text_:und in 4932) [ClassicSimilarity], result of:
          0.037350997 = score(doc=4932,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.29385152 = fieldWeight in 4932, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=4932)
      0.25 = coord(1/4)
    
  11. Charlier, M.: Drucksachen (1997) 0.01
    0.009337749 = product of:
      0.037350997 = sum of:
        0.037350997 = weight(_text_:und in 6) [ClassicSimilarity], result of:
          0.037350997 = score(doc=6,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.29385152 = fieldWeight in 6, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=6)
      0.25 = coord(1/4)
    
    Abstract
    Kurzbericht über die Angebote der Buchhändlervereinigung (VLB), des OPACs der Deutschen Bibliothek und Subito
  12. Charlier, M.: Netgeschichten: http://sexygirls.com (1997) 0.01
    0.009337749 = product of:
      0.037350997 = sum of:
        0.037350997 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.037350997 = score(doc=1216,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.29385152 = fieldWeight in 1216, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.09375 = fieldNorm(doc=1216)
      0.25 = coord(1/4)
    
    Abstract
    Mit einer kurzen Geschichte der Entwicklung von Yahoo durch Jerry Yang und David Filo.
  13. Charlier, M.: DNS und TLD (2001) 0.01
    0.008803714 = product of:
      0.035214856 = sum of:
        0.035214856 = weight(_text_:und in 5784) [ClassicSimilarity], result of:
          0.035214856 = score(doc=5784,freq=16.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.27704588 = fieldWeight in 5784, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.03125 = fieldNorm(doc=5784)
      0.25 = coord(1/4)
    
    Abstract
    Dass wir uns im Web bewegen können, ohne nachzuschlagen, wer unter welcher Nummer erreichbar ist, verdanken wir dem Domain Name Service (DNS). Der nimmt uns diese Arbeit ab, meistens so zuverlässig, dass vielen Internet-Nutzern seine Existenz nicht bewusst ist. In Wirklichkeit werden Rechner im Netz mit nummerischen IP-Adressen gekennzeichnet, dargestellt in vier acht Bit-Dezimalen - 194.175.173.20 liest sich das etwa. Und die DNS-Datenbanken wissen: Aufrufe von www.fr-aktuell.de müssen an den Rechner mit dieser Nummer durchgeschaltet werden. Damit es kein Durcheinander gibt, darf jede Adresse nur einmal im Netz präsent sein. Deshalb ist der DNS hierarchisch aufgebaut. Jede Registrierungsstelle, hier zu Lande Denic, die eine IP-Adresse vergibt, meldet die Zuordnung an den Root Server A. Von da wird sie an die Datenbanken der zwölf anderen Server des a.root-server.net weitergegeben - und kann von allen Nameservem weltweit abgefragt werden. Zehn der 13 Knoten stehen in den USA und befinden sich mehrheitlich unter Kontrolle militärischer oder anderer staatlicher Institutionen. DNS-Änderungen gegen den Willen der US-Regierung sind so praktisch unmöglich. Bezeichnungen sind meist zweiteilig aufgebaut: Erst der Name der Domain wie fr-aktuell, dann ein Punkt und schließlich eine übergeordnete Top-Level-Domain (TLD) wie com oder de. Vor dem Domainnamen kann ein Rechnername (oft www) stehen, und davor vielleicht eine Subdomain, die der Inhaber einer Domain auf seinem Rechner nach eigenem Belieben einrichten kann. Hinter der TLD steht ein Slash /". Was danach kommt, gehört zum Pfad einer Datei auf dem Rechner - nicht zur Domain. Anfangs gab es sieben TLD, vergeben von amerikanischen Registraren: com(mercial), Net(work), Org(anization), Edu(cational), Gov(ernement), mil(itary) und int(ernational organisation). In einer ersten Erweiterung kamen Länderdomains dazu, etwa.de für Deutschland, at für Österreich, .ch für die Schweiz. Einige werden leicht zweckwidrig clever vermarktet: Der pazifische Inselstaat Tuvalu verkauft sein Suffix.tv für viel Geld weltweit an TV-Sender, Kongo will mit .cd die Musikbranche aufmischen. Und Tonga profitiert von Adressen wie come.to/sowienoch; ähnlich Österreich mitplay.at/ditunddat
  14. Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002) 0.01
    0.008699934 = product of:
      0.034799736 = sum of:
        0.034799736 = weight(_text_:und in 623) [ClassicSimilarity], result of:
          0.034799736 = score(doc=623,freq=40.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.27378 = fieldWeight in 623, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.01953125 = fieldNorm(doc=623)
      0.25 = coord(1/4)
    
    Content
    "Das finstere Mittelalter überliefert uns befremdliche Bilder von Bibliotheken: Da sind die Folianten an den Pulten angekettet, damit niemand eines der wertvollen Stücke davonträgt. Wohl auch, damit keiner sich mit dem gefährlichen Gut Wissen außerhalb von Aufsicht und Disziplin der Fakultäten zu schaffen machte. Heute findet das Mittelalter in der Deutschen Bibliothek in Frankfurt am Main und Leipzig statt. Wer die als Belegexemplare eingelieferten digitalen Publikationen einsehen will, kann das weder vom privaten Internetanschluss aus noch von dem eines Instituts oder einer Universitätsbibliothek. Forscher müssen nach Frankfurt reisen und einen Leihschein ausfüllen, um dann dort am Terminal die digital angeketteten Veröffentlichungen einsehen zu können. Die Bibliothek ist dafür am wenigsten zu schelten. Da der Gesetzgeber es versäumt hat, die rechtlichen Vorschriften der technischen Entwicklung des Buchwesens anzupassen, sind die Verlage nicht verpflichtet, digitale Publikationen abzuliefern. Die Bibliothekare haben in langwierigen Verhandlungen wenigstens erreicht, dass die Verlage die Bücher freiwillig einreichen - zu ihren Bedingungen. Nicht nur digitale Publikationen hängen an der Kette der Verlage. Spektakulär ist die Entwicklung bei den wissenschaftlichen Zeitschriften. Teuer waren sie schon immer. Nicht ohne Grund, denn ihre Herstellung verlangt hohen Aufwand: Fachlich kompetente redaktionelle Betreuung, aufwendiger Druck (Sonderschriften, IIlustrationen) in oft kleinen Auflagen, Versand in viele Länder der Erde und dann auch noch Lagerhaltung für lange Zeit. In den vergangenen zehn Jahren haben sich die Preise für solche Spezialzeitschriften im Durchschnitt verdreifacht - sie liegen heute zwischen 5.000 und 20.000 USDollar für das Jahresabonnement. Gleichzeitig hat sich die Zahl der relevanten Publikationen etwa verdreifacht. Für eine solide geführte Bibliothek lässt sich daraus eine Verzehnfachung des für die Anschaffung erforderlichen Budgets errechnen. Doch die Etats stagnieren, und in den Regalen breiten sich Lücken aus. Bibliothekare sprechen von einer "Journal-Crisis". Viele Wissenschaftler hat die Entwicklung kalt erwischt. Sie betrachten wissenschaftliche Ergebnisse oft nicht als Waren mit einem Preisschild, sondern als Tauschobjekte in einer Geschenkökonomie: Alle können verwenden, was andere als Baustein zum gemeinsamen Werk beitragen, solange die Anstandsregeln des sauberen Zitierens und der Anerkennung von Prioritäten eingehalten werden. Damit ist es vorbei, seit man weniger von der Wissen- schaftsgemeinschaft, der "Scientific Community" spricht - und mehr von "Intellectual Property", dem geistigen Eigentum: Erkenntnisse sollen unmittelbar is die Produktion übergeführt und zur konsequenten Verwertung patentiert werden.
    Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
    Darum haben einige Verlage jetzt harte Bandagen aufgelegt. Das nahezu übereinstimmende Grundmuster: Sie verlangen die Übertragung aller Rechte auf den Verlag und den Verzicht auf Vorabveröffentli-chung auf Preprint-Servern. Möglichst jede Veröffentlichung und jede Verwertung soll über ihre Abrechnungsstellen laufen. Freier Austausch der Wissenschaft? Hat im Zeichen von "Intellectual Property" wenig zu besagen. Da ist sie wieder, die Kette aus dem Mittelalter. Einige Zeitschriften können diese Forderung anscheinend durchsetzen. Sie haben eine so überragende Stellung, dass die Wissenschaftlergemeinde alles, was dort fehlt, nicht für voll nimmt. Die allgemeine Entwicklung geht in eine andere Richtung. Auf einer Veranstaltung der HeinrichBöll-Stiftung in Berlin wurde deutlich, immer mehr Wissenschaftler wollen diese Zustände nicht mehr hinnehmen, dass ihr Wissen eingekerkert wird, wie der Berliner Mathematiker Martin Grötschel formuliert. In den USA hat die "Public Library of Science' 30.000 Unterschriften von Wissenschaftlern gesammelt: Alle Veröffentlichungen sollen spätestens sechs Monate nach Erscheinen im Internet kostenlos zugänglich sein. Andere Forderungen gehen noch weiter: Mit öffentlichen oder gemeinnützigen Mitteln geförderte Forschungsprojekte müssten ihre Ergebnisse sofort über das Netz zugänglich machen. Die Weltvereinigung der Mathematiker (IMU) hat jetzt Nägel mit Köpfen gemacht: Mitte April hat sie ihr Kommunikationssystem Math-Net gestartet. Es soll allen Mathematikern eine einheitliche Plattform für ihre Web-Publikationen bereitstellen. Das Ziel: eine Digital Mathematical Library, die die gesamte mathematische Literatur im Internet bereitstellt - ohne Ketten aus Eisen, Geld oder andere Zugangsbeschränkungen.
  15. Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001) 0.01
    0.008416933 = product of:
      0.033667732 = sum of:
        0.033667732 = weight(_text_:und in 5783) [ClassicSimilarity], result of:
          0.033667732 = score(doc=5783,freq=26.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.2648742 = fieldWeight in 5783, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.0234375 = fieldNorm(doc=5783)
      0.25 = coord(1/4)
    
    Abstract
    Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
    Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
    Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
  16. Charlier, M.: Auf den Datenautobahnen ist ein Tempolimit nicht ungewöhnlich : erste 'Strecken' für Informationsdienste sind nun auch hierzulande befahrbar. Weg zur Online-Illustrierten ist noch weit (1995) 0.01
    0.0077814576 = product of:
      0.03112583 = sum of:
        0.03112583 = weight(_text_:und in 28) [ClassicSimilarity], result of:
          0.03112583 = score(doc=28,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.24487628 = fieldWeight in 28, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=28)
      0.25 = coord(1/4)
    
    Content
    Bericht über Aktivitäten von Privatfirmen, Zugänge zum Internet anzubieten: BDA = Bundesdatenautobahn (Verbund regionaler Informationsanbieter von der Norddeutschen (NDA) in Hamburg bis zur Bayrischen Datenautobahn in München); DDA = Deutsche Datenautobahn (XLink, Karlsruhe und Free Software Association, Frankfurt)
  17. Charlier, M.: Protestnoten in Chiracs Mailbox : Anti-Atomtest-Bewegung nutzt weltweites Datennetz (1995) 0.01
    0.0077814576 = product of:
      0.03112583 = sum of:
        0.03112583 = weight(_text_:und in 1686) [ClassicSimilarity], result of:
          0.03112583 = score(doc=1686,freq=2.0), product of:
            0.1271084 = queryWeight, product of:
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.057349887 = queryNorm
            0.24487628 = fieldWeight in 1686, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.216367 = idf(docFreq=13101, maxDocs=44218)
              0.078125 = fieldNorm(doc=1686)
      0.25 = coord(1/4)
    
    Abstract
    Der Beschluß des französischen Präsidenten Jacques Chirac, die Atomversuche wiederaufzunehmen, hat auch die benutzer des weltweiten datennetzes 'Internet' mobilisiert. Zum ersten Mal in ihrer Geschichte nutzt die Anti-Nukleartest-Bewegung die Möglichkeit, über das Internet Informationen auszutauschen, Resolutionen zu veröffentlichen, Unterschriften zu sammeln und nicht zuletzt auch dazu, via e-mail bei Chirac zu protestieren