Kaum eine deutsche Website schert sich um den „W3C-Standard“

Ganze 3,9 Prozent halten sich hierzulande an die Vorgaben des W3C. 15.980 gültige Webseiten hat ValiWatch im deutschen Web gefunden. Angesichts dieser Zahlen sei mir die ketzerische Frage erlaubt, inwieweit man hier überhaupt noch von einem Standard sprechen kann?

Das ist ungefähr so, als wenn man Esperanto zum Standard für die internationale Kommunikation stipuliert, obwohl nur 3,9 Prozent der Weltbevölkerung überhaupt schon mal das Wort Esperanto gehört hat. Der Vergleich mag ein wenig hinken. Dennoch zeigt sich wieder einmal, dass es praktisch unmöglich ist, einer so großen Zahl an Menschen eine Sprache aufzuzwingen, die sich dann auch noch bis auf das i-Tüpfelchen daran halten soll.

Auch wenn es sich noch so viele Feinde des Internet Exploder wünschen, mit einem offenen HTML-Standard, an den sich alle halten, wird es so schnell nichts werden. Meiner Ansicht nach ist das W3C mit diesem Projekt gescheitert.

So, und jetzt könnt ihr mich von mir aus steinigen.

ValiWatch 2005: Valide Seiten, CSS, Tableless Design
(via unblogbar)

27 Kommentare

  1. Kommentar von Usul am 31.03.05 20:19:

    Behaupten, dass das W3C gescheitert ist, kann ich auch. Wie wäre es mal mit einer These, wie es hätte besser laufen können? Microsoft gibt vor, wie sie sich das Internet vorstellen, und alle anderen (Mozilla/Opera/usw.) dürfen hinterherhecheln? Wohl kaum, oder? Die vom W3C haben es wenigstens versucht, und wenn Microsoft die Gnade gehabt hätte, da mitzuziehen, dann wäre es auch was geworden, behaupte ich jetzt mal.

    Außerdem, was soll der Vergleich mit Esperanto? Der hinkt ja wohl total. HTML muß nicht jeder lernen, der das Internet benutzt, sondern nur die, die Webseiten erstellen, und das auch noch im Quellcode (also ohne WYSIWYG-Tools). Der Otto-Normal-Surfer bekommt doch HTML normalerweise überhaupt nicht zu Gesicht, im Gegensatz zu Esperanto, was jeder lernen muß, der es nutzen will (auch wenn er es nur „konsumiert“).

  2. Kommentar von Silke Schümann am 31.03.05 21:23:

    Falsch. Valide Seiten lassen sich unabhängig von Microsoft gestalten.

    Microsoft hat den conditional comment und damit lässt sich der proprietäre Code so einbinden, dass es die Validität nicht berührt.

    Validität ist allerdings auf dem Vormarsch. Nur wie üblich hinken wir hinterher. Wir schreiben nach wie vor in den meisten Fällen von amerikanischen Seiten ab und preschen eben nicht vor.

  3. Kommentar von Jan Tißler am 31.03.05 21:54:

    Eine schön provokante These, aber der Vergleich hinkt nun wirklich enorm. Denn es ist ja nicht so, dass 3,9 Prozent der Webseiten auf HTML fußen und der Rest auf vollkommen anderen Sprachen. Die Wahrheit ist: Es können nur 3,9 Prozent korrektes HTML schreiben und das ist in anderen Sprachen auch nicht anders… Es heißt z.B. ketzerisch und nicht krätzerisch, obwohl man da wirklich die Krätze bekommen kann 😉

  4. Kommentar von Michael Pietroforte am 31.03.05 21:58:

    @Usul
    Genau darin liegt eines der Probleme. Ein beträchtlicher Teil der W3C-Befürworter sieht sich darin berufen, das „freie Internet“ gegenüber den bösen, allmächtigen Redmondern zu verteidigen. Das Ziel war nicht, das Web zu verbessern, sondern Microsoft in seine Schranken zu weisen. Dies ist einer der Gründe, weshalb das W3C gescheitert ist. Die Mehrheit der Webmaster interessiert sich für diese ideologischen Grabenkämpfe nicht, sondern nur dafür, möglichst viele Leser auf ihre Website zu locken. Sie nutzen deshalb Features, die nur der IE bietet und verzichten auf all die schönen W3C-Orden für den tapferen ideologischen Beistand.

    Es natürlich richtig, dass der Betrachter einer Website kein HTML können muss. Der Punkt ist, dass es zigtausende Webmaster, Webdesigner und Homepagebastler gibt. Zu glauben, dass eine so große Zahl von Menschen, sich an einen so penibel festgezurrten Standard hält, ist meines Erachtens weldfremd. Darin unterscheidet sich das Web von anderen Bereichen des Internets. Bei TCP/IP etwa, müssen sich ein paar Kernelentwickler und Router-Hersteller an den Standard halten. Und selbst da gibt es schon Probleme. Hinzu kommt, dass es beim Webdesign oft um künstlerische Aspekte geht. Ein Designer wird immer alle Möglichkeiten nutzen, die man ihm an die Hand gibt. Ein formaler Standard ist da nur hinderlich.

    @ Silke Schümann
    >> Validität ist allerdings auf dem Vormarsch.
    Lässt sich das belegen? 3,9 Prozent hört sich für mich nicht gerade nach Vormarsch an.

  5. Kommentar von Michael Pietroforte am 31.03.05 22:12:

    @Jan Tißler
    Ich habe schon zugegeben, dass der Vergleich hinkt. Die Parallele besteht darin, dass diese Welt weder Esperanto noch das W3C braucht. Sprachen müssen sich frei entwickeln und können nicht am grünen Tisch ausgekungelt werden. Ansonsten danke für den Hinweis. Ich habe es korrigiert. Zumindest an diesen Standard will ich mich ja halten. 😉

  6. Kommentar von Usul am 1.04.05 07:50:

    Ich habe immer noch keinen Kommentar gelesen, der eine Alternative zu W3C-Standards zeigt, außer diesen:

    „Sprachen müssen sich frei entwickeln und können nicht am grünen Tisch ausgekungelt werden.“

    Das heißt, man soll solche Sachen wie HTML sich einfach entwickeln lassen? Dann sage ich mal folgendes: Der eine oder andere mag sich daran erinnern, das es vor einiger Zeit mal eine Patentstreitigkeit über ein Verfahren gab, wie man Objekte in eine Webseite einbindet (es ging glaub um Plugins). Ich traue Microsoft durchaus zu, das sie in ihren Browser („ihrem“ HTML) Features integrieren, die durch Patente belastet sind, diese Features werden dann durch die Marktdominanz des IE zum Quasistandard erhoben, ohne die ein ernsthafter Browser nicht mehr konkurrenzfähig ist. Dann stehen die alternativen Browserhersteller vor der Wahl, diese Features zu integrieren und Patentgebühren zu zahlen (oder es zu riskieren, verklagt zu werden), oder sie lassen es und werden unattraktiv für die Nutzer, weil viele Seiten nicht korrekt funktionieren.

    Also das nenne ich keine Alternative. Da ist mir der W3C-Ansatz, so unvollkommen er auch ist, bedeutend lieber.

  7. Kommentar von Moe am 1.04.05 12:40:

    Wieviel Prozent der deutschen sprechen und schreiben wohl ein tadellos korrektes Schuldeutsch, so wie es im Duden steht?
    Ignorieren alle, die nicht 100% korrekt sind etwa sämtliche Gesetze der Sprache? Ich denke nein, da sonst keine Kommunikation möglich wäre. Und genau das ist der Grund, warum wir Standards brauchen. Und es ist *auch* der Grund, warum wir *nicht* den 95% die sich nicht an Standards halten können oder wollen den Mund verbieten. Und das ist auch gut so.
    Grüße,
    Moe
    (einer der 3,9%)

  8. Kommentar von Jan Tißler am 1.04.05 17:44:

    Ja, absolut: Standards sind wichtig. In unserer Welt würde heute gar nichts funktionieren, wenn es keine Standards gäbe… Man stelle sich mal vor, man würde die Größe eines Blattes Papier „sich frei entwickeln lassen“ – viel Spaß beim Kauf passender Ablagen, Drucker, Briefumschläge… Oder man würde es dem Markt überlassen, wie Steckdosen auszusehen haben. Oder, oder, oder.

    Wir reden hier zwar über eine „Sprache“, aber eben über eine in Anführungszeichen. HTML ist eher mit einem Industriestandard zu vergleichen, der dafür sorgt, dass verschiedene Produkte verschiedener Hersteller doch irgendwie alle miteinander auskommen.

    Und da gab es schon immer Hersteller, die ihr eigenes Süppchen kochen wollten und Hersteller, die einfach schlampige Arbeit abgeliefert haben.

    Und die 3,9 Prozent sind ja nur die, die es perfekt machen. Wer auch nur einen Fehler macht, ist ja sofort bei den 96,1 Prozent, wenn ich das richtig sehe. Und diese Einteilung in schwarz/weiß ist mir eh ein bisschen zu heftig. Auch bei der Stromspannung gibt es Schwankungsbreiten…

  9. Kommentar von Silek Schümann am 1.04.05 19:23:

    @ Michael Pietroforte

    Da ich mich nach wie vor im selben Umfeld bewege, jedoch immer häufiger in diesem Umfeld von Standards lese und Kunden explizit danach fragen, was davor nicht der Fall war, ist meine These durchaus begründet.

    Ich bewege mich nicht im wissenschaftlichen Umfeld, so dass ich mich auf meinen Bauch gerne verlasse und sicherlich keine Anstrengungen unternehme, hier einen Beweis anzutreten. :o)

  10. Kommentar von Michael Pietroforte am 1.04.05 19:42:

    @Moe, Jan Tißler
    Ich halte Standards im Allgemeinen und insbesondere in der IT für ausgesprochen wichtig und absolut notwendig. Das ändert aber nichts an der Tatsache, dass ich die Arbeit des W3C für überflüssig und teilweise auch für schädlich halte. Ob ein Standard notwendig ist und in welcher Form er verbreitet werden soll, hängt von vielen Faktoren ab. Im Falle von Dateiformaten sind offene Standards in den meisten Fällen schädlich, proprietäre Standards sind hier in der Regel leistungsfähiger und verlässlicher.

    Das häufigste Argument, dass man in Bezug auf die Notwendigkeit eines offenen Standards für HTML hört, ist Interoperabilität. Es soll sichergestellt werden, dass Webseiten mit jedem Browser gleichermaßen angezeigt werden können. Ich halte dieses Argument für vollkommen falsch. Es ist technisch überhaupt kein Problem, Browser zu entwickeln, die mit mehreren Standards klarkommen. Jeder Web-Browser ist z.B. problemlos in der Lage auch PDF anzuzeigen. Netscape hat es vorgemacht, dass das mit HTML genau so funktioniert. Alles was notwendig ist, ist Browser und Rendering Engine zu trennen, et voilà, Interoperabilität ohne Ende ist das Resultat.

    Ich glaube, dass das vehemente Pochen der W3C-Fans auf Standards nicht der wahre Grund für deren Eifer ist (siehe meinen Kommentar oben). Die Notwendigkeit von Standards einzusehen und die Arbeit des W3C zu schätzen, sind zwei Dinge, die wirklich gar nichts miteinander zu tun haben.

    Moe, eine Frage hätte ich aber noch. Wenn 95 % Standardkonformität in Bezug auf die deutsche Sprache ausreicht, weshalb sind dann 100 % bei HTML notwendig? Moderne Browser arbeiten ebenso wie deutsche Sprecher fehlertolerant. Wozu dann also dieses Getue um die Validität von Webseiten?

    @Usul
    >> Das heißt, man soll solche Sachen wie HTML sich einfach entwickeln lassen?

    In der Tat, das heißt es. Meine Antwort auf den Kommentar von Moe und Jan Tißler sollte die Bedenken in Bezug auf Patente zerstreuen. Soweit ich weiß, hält Adobe einige Patente in Bezug auf PDF. Dies stellt mitnichten irgendein Problem dar.

    @Silke Schümann
    In der Wissenschaftstheorie nennt man eine bauchbasierte Schlussfolgerung, die auf zu wenigen Daten beruht, einen unzulässigen Induktionsschluss. 😉 Die Datenbasis von ValiWatch scheint mir da doch etwas verlässlicher.

  11. Kommentar von Silke Schümann am 2.04.05 11:00:

    @ Michael Pietroforte

    :o)
    1. meine Induktionsschlüsse sind i.R. sehr nahe an der Realität.
    2. Die Zahl sagt nichts über Rückläufigkeit oder über meinen wahrgenommenen Vormarsch aus.

    Ich kann also gut damit Leben.

  12. Kommentar von Usul am 4.04.05 08:13:

    @ Michael Pietroforte

    „Im Falle von Dateiformaten sind offene Standards in den meisten Fällen schädlich, proprietäre Standards sind hier in der Regel leistungsfähiger und verlässlicher.“

    Bis der Hersteller seine Lizenzbedingungen ändert und der Anwender mitziehen MUSS, weil andere Anbieter das proprietäre Format nicht lesen können. Das nennt mal wohl Kundenbindung.

    „Das häufigste Argument, dass man in Bezug auf die Notwendigkeit eines offenen Standards für HTML hört, ist Interoperabilität. Es soll sichergestellt werden, dass Webseiten mit jedem Browser gleichermaßen angezeigt werden können. Ich halte dieses Argument für vollkommen falsch. Es ist technisch überhaupt kein Problem, Browser zu entwickeln, die mit mehreren Standards klarkommen. “

    Aha. Und das andere Browserhersteller es nicht schaffen, eine 100% IE-kompatible HTML-Engine zu programmieren, liegt an deren Unfähigkeit? Oder ist es reine Absicht?

    „Jeder Web-Browser ist z.B. problemlos in der Lage auch PDF anzuzeigen.“

    Ich kenne keinen Browser, der PDFs anzeigen kann. Ich kenne nur Browser-Plugins, die das können. Die kommen fast ausschließlich von Adobe, beim Reader halt dabei. Soll das Beispiel dazu dienen, eine Art IE-Plugin vorzuschlagen, damit jeder Browser IE-HTML korrekt darstellen kann?

    „Netscape hat es vorgemacht, dass das mit HTML genau so funktioniert. Alles was notwendig ist, ist Browser und Rendering Engine zu trennen, et voilà, Interoperabilität ohne Ende ist das Resultat.“

    Netscape hat vorgemacht, das man die IE-HTML-Engine in eigene Anwendungen einbetten kann. Hurra, welch Fortschritt, das hab vorher bestimmt niemand gewußt. Dummerweise hat man dabei überhaupt nichts gekonnt, das funktioniert unter Linux/MacOS/Solaris/… immer noch nicht. Da gibts keine IE-HTML-Engine zum einbetten.

    „Soweit ich weiß, hält Adobe einige Patente in Bezug auf PDF. Dies stellt mitnichten irgendein Problem dar.“

    Und wieso stellen die kein Problem dar? Weil Adobe versprochen hat, mit diesen Patenten keinen Drittanbieter von PDF-Produkten zu verklagen? Hätte ich jetzt gern gewußt, warum ein Patent einer Firma für jemand anderen kein Problem ist, der Dinge programmiert, die vom Patent berührt werden.

  13. Kommentar von Michael Pietroforte am 5.04.05 19:56:

    >>Bis der Hersteller seine Lizenzbedingungen ändert und der Anwender mitziehen MUSS, weil andere Anbieter das proprietäre Format nicht lesen können. Das nennt mal wohl Kundenbindung.

    Die Angst vor bösen Softwarekonzernen, die ihren Kunden Lizenzbedingungen aufzwingen und sie zum Kauf ihrer Produkte nötigen, ist für mich beim besten Willen nicht nachvollziehbar. Leider entwickelt es sich zusehends zu einem typisch europäischen Charakterzug. Vermutlich ist das ein Grund, warum wir im Softwarebereich mehr und mehr vom Rest der Welt abgehängt werden. (Wenn man mal vom ERP-Bereich absieht.)

    Wie gut das funktionieren kann mit proprietären und konkurrierenden Dateiformaten sieht man im Audiobereich. MP3 ist z.B. ein patentiertes Format. Muss da irgendjemand vor irgendwas Angst haben? Sollten sich die Patentinhaber eines Tages dazu entscheiden, Unfug damit zu treiben, wäre das das Aus für MP3. Für PDF gilt das Gleiche und bei Adobe ist man schlau genug, diesen Fehler nicht zu begehen.

    Die Geschichte proprietärer Dateiformate zeigt meines Erachtens, dass Ängste vor Patenten und Lizenzbedingungen unnötig sind. Mir ist jedenfalls kein negatives Beispiel bekannt.

    >> Aha. Und das andere Browserhersteller es nicht schaffen, eine 100% IE-kompatible HTML-Engine zu programmieren, liegt an deren Unfähigkeit? Oder ist es reine Absicht?

    Bisher hat das meines Wissens niemand ernsthaft versucht. Das liegt wohl daran, dass alle Hersteller der Alternativbrowser der Ansicht sind, dass das W3C in Sachen HTML-Standard den Ton angibt und nicht Microsoft. Leider hat sich das als fundamentale Fehleinschätzung entpuppt. Hätte man sich an den IE-Standard gehalten und diesen dann eigenmächtig durch eigene Features erweitert, wäre es nie zu Microsofts Monopol im Browser-Bereich gekommen. Ein IE-kompatibler Browser unter Linux ist durchaus möglich. Wenn es mit einem komplexen System wie .NET geht, sollte das auch mit einer vergleichsweise einfachen Anwendung wie dem IE funktionieren.

  14. Kommentar von Usul am 8.04.05 22:33:

    Ok, wenn man mit der Taktik herangeht, es ist bisher nichts passiert, also wird auch in Zukunft nichts passieren, dann kann man eine Menge Bedenken über Bord werfen ….

    >> Bisher hat das meines Wissens niemand ernsthaft versucht. Das liegt wohl daran, dass alle Hersteller der „Alternativbrowser“ der Ansicht sind, dass das W3C in Sachen HTML-Standard den Ton angibt und nicht Microsoft. Leider hat sich das als fundamentale Fehleinschätzung entpuppt. Hätte man sich an den IE-Standard gehalten und diesen dann eigenmächtig durch eigene Features erweitert, wäre es nie zu Microsofts Monopol im Browser-Bereich gekommen. Ein IE-kompatibler Browser unter Linux ist durchaus möglich. Wenn es mit einem komplexen System wie .NET geht, sollte das auch mit einer vergleichsweise einfachen Anwendung wie dem IE funktionieren.

    Das Problem ist, das es keinen IE-Standard gibt. Der IE funktioniert „irgendwie“, und alle anderen programmieren hinterher. Heutzutage hat jeder Browser einen Quirks-Modus für nicht valide Seiten. Der praktische Effekt ist dann folgender: Jemand benutzt einen alternativen Browser und findet eine nicht valide Seite, die der Browser nicht korrekt darstellt, der IE aber schon. Also wird der Browserhersteller kontaktiert und eine Korrektur eingebaut. Die einzige Alternative wäre, sämtliche Seiten, die es gibt, manuell zu testen. Unmöglich.

    Der Browserhersteller kann also nur reagieren, er kann nicht einfach die IE-Engine „nachbauen“, weil deren Arbeitsweise nirgends exakt definiert ist. Im Gegensatz zu den W3C-Standards, die sind (meist) genau definiert. Will man den IE nachbauen, grenzt das an Reverse Engineering.

    Der Vergleich mit .NET hinkt gewaltig. C# ist von einem offiziellen Gremium standardisiert, das gesamte Framework ist viel offener publiziert. Der IE-Standard ist nirgends offengelegt oder gar standardisiert, wenn doch, her mit den Informationen und danke im Vorraus. Übrigens, wenn der IE so toll standardisierst ist, fragt man sich, wieso sich der MAC-IE und der Windows-IE unterschiedlich verhält … Die beiden IEs wurden von unterschiedlichen Teams programmiert, was die Unterschiede erklärt. Es würde dieser Unterschiede aber kaum geben, wenn wenigstens Microsoft-intern eine exakte Definition des IE-HTMLs geben würde. Wenn es doch eine gibt, und nicht mal zwei MS-interne Teams es schaffen, zwei Browser zu programmieren, die sich gleich verhalten, dann frage ich mich, wie das ein anderer Hersteller schaffen soll…

    Der IE ist nur Standard geworden, weil er bei Windows kostenlos und immer (zumindest seit einigen Jahren) dabei ist. Es gibt keinen anderen Grund dafür.

  15. Kommentar von Michael Pietroforte am 9.04.05 17:24:

    Mein Argument ist offensichtlich noch nicht klar geworden. Es geht nicht darum, dass eine Firma einen Standard vorgibt und die anderen sich dann daran halten. Die Idee ist vielmehr, dass jeder Browser-Hersteller mehr oder weniger unabhängig von den anderen eine eigene Rendering-Engine entwickelt. Dabei kann man durchaus Features von den anderen klauen, soweit sie nicht patentiert sind. D.h. im Wesentlichen aber doch, dass jeder ein vollkommen eigenes Format entwickelt. Die Unterschiede können so durchaus beträchtlich werden.

    In Bezug auf die Interoperabilität stellt dies überhaupt kein Problem dar. Das Verhältnis der einzelnen Rendering-Engines wäre so wie heute zwischen HTML und PDF. Wenn ich heute in einer PDF-Datei auf einen Hyperlink klicke, der auf ein HTML-Dokument verweist, öffnet sich mein Web-Browser. Und umgekehrt funktioniert das bekanntlich ebenso. Hätte jeder Browser-Hersteller sein eigenes Format, wäre das exakt die gleiche Situation. Klicke ich im IE auf eine Gecko-Datei, wird automatisch der Firefox gestartet. Oder klicke auf einen Dokumenten-Typ, der meinem Betriebssystem noch unbekannt ist, wird die entsprechende Rendering-Engine automatisch heruntergeladen und gestartet. Auch unbekannte Hersteller hätten bei diesem System eine echte Chance.

    So hat die zweifelhafte Allianz zwischen dem W3C und Microsoft zu einem Monopol eines Browsers geführt. Warum sollte ich einen anderen Browser benutzen, als der, der bereits installiert ist, wenn doch alle im Grunde das Gleiche können? Ohne das W3C hätten wir heute eine Vielfalt von Browsern und Formaten und keine langweilige Monokultur. Das Web hätte sich technologisch sehr schnell weiterentwickelt und wäre nicht auf dem Stand nach dem Browserkrieg zwischen Netscape und Microsoft stehen geblieben.

    Vor allem in Europa ärgern sich viele so sehr über den Reichtum von Bill Gates, dass sie in Organisationen, die nicht den Gesetzen des Kapitalismus unterliegen, ihr Heil suchen. Internet-Polizisten mit ihren Validierungsmaschinen sollen Sünder aufspüren, die sich an den IE- und nicht an den W3C-Standard halten und damit scheinbar Herrn Gates noch reicher machen. Ich gönne Herrn Gates seine Milliarden und habe überhaupt nichts dagegen, dass er noch mehr davon anhäuft. Doch die ungewollte Schützenhilfe durch Internet-Behörden wie dem W3C vergrößert nicht nur den Reichtum von Herr Gates, sondern macht aus dem Web eine langweilige Monokultur. Und dagegen habe ich sehr viel.

  16. Kommentar von Usul am 11.04.05 15:17:

    Interessanter Ansatz, mit den vielen Renderingenginen. Erinnert irgendwie an die Situation momentan bei eingebetteten Videos. Es gibt drei verbreitete Standards, Realplayer, QuickTime und die Windows-Variante (WMV und Konsorten). Der Anwender darf sich jetzt darum kümmern, drei verschiedene Player zu installieren und aktuell zu halten, jeder verhält sich anders, hat andere Macken etc. Wenn man eine solche Vielfalt auch bei der Darstellung von normalen HTML-Seiten will, bitteschön, dann haben wir wirklich unterschiedliche Vorstellungen davon, in welchen Fällen Standards gut sind und welchen nicht.

  17. Kommentar von Henning Heinz am 23.04.05 14:52:

    Wer Seiten wie heise.de oder spiegel.de in den selben Topf wie die Homepage von Nachbars Lumpi wirft, einmal umrührt und dann mit 3,9% um sich schmeißt kann zwar seine Thesen mit Zahlen belegen, er ist deshalb aber nicht unbedingt glaubwürdiger. Und wer nichts mehr glaubt, nur weil er keine Zahlen präsentiert bekommt ist für mich ein gutes Beispiel für den Gutachter und Beraterwahnsinn in Deutschland.
    Durch die zunehmende Verbreitung von CMS Systemen oder auch ausgereiften Blog Engines wird die W3C Konformität oft automatisch verbessert (ohne das dies im Focus des Betreibers liegt). Wenn aber gerade in den strengeren Formen der W3C Regeln schon das unmaskierte Veröffentlichen eines „&“ in einem Link schon zur Invalidität führt darf man sich über schlechte Werte aber auch nicht wundern. Insofern sind viele Webseiten oft immer noch nicht W3C konform, weisen pro Webseite aber oft bedeutend weniger „Fehler“ auf. Dem W3C ein Scheitern zu attestieren ist einfach, denn wenn der größte Player nicht dabei ist, ist man immer angreifbar. Und da man nicht weiß, wie das Internet aussehen würde, wenn es das W3C nicht gegeben hätte, ist die Diskussion an sich schon ein wenig absurd.
    Das W3C funktioniert wie eine Geschwindigkeitsbeschränkung. Die wenigsten halten sich dran aber würde es Sie nicht geben würden alle wohl noch viel schneller fahren. Ich persönlich habe es jedenfalls nie als Forschritt empfunden Flashfilme mit einer kryptischen class-id in meinen Code einzubinden und ich bin froh das es inzwischen auch ohne funktioniert. Ob das jetzt das W3C war? Keine Ahnung (ich könnte es auch nicht mit Zahlen belegen, war wohl eher ein Patent Schuld). Wenn etwas nicht 100%ig funktioniert ist es ja in Deutschland schon gescheitert, in Italien ein erfolgreiches Projekt und in Griechenland eine Referenzstory (um auch mal ein paar Klischees zu bedienen).

  18. Kommentar von Michael Pietroforte am 23.04.05 18:31:

    >>Wer Seiten wie heise.de oder spiegel.de in den selben Topf wie die Homepage von Nachbars Lumpi wirft, einmal umrührt und dann mit 3,9% um sich schmeißt kann zwar seine Thesen mit Zahlen belegen, er ist deshalb aber nicht unbedingt glaubwürdiger.

    Ich wage zu bezweifeln, dass es um die Validität bei den Großen besser bestellt ist. Auf Validität zu achten, kostet vor allem Geld. Geld, das man mehr oder weniger zum Fenster rauswirft. Für eine kommerzielle Website kommt es ausschließlich darauf an, dass sie korrekt in den am meisten verbreiteten Browsern dargestellt wird. Für ideologische Spielereien haben nur die wenigsten Unternehmen Geld übrig.

    >>Und da man nicht weiß, wie das Internet aussehen würde, wenn es das W3C nicht gegeben hätte, ist die Diskussion an sich schon ein wenig absurd.
    Das W3C funktioniert wie eine Geschwindigkeitsbeschränkung. Die wenigsten halten sich dran aber würde es Sie nicht geben würden alle wohl noch viel schneller fahren.

    In diesem Argument ist ein Denkfehler. Den meisten Betreibern von Websites ist der W3C-Standard Schnurz, dummerweise aber nicht den Browserherstellern. Bis auf Microsoft versuchen sich im Großen und Ganzen alle daran zu halten. Würde sie es nicht tun, wäre auch Microsoft gezwungen gewesen, die HTML-Technologie weiterzuentwickeln. So aber konnte man sich in Redmond einfach zurücklehnen und darauf bauen, dass die Anwender den Browser benutzen, der eh schon installiert ist. Ohne das W3C gäbe es das IE-Monopol sicher nicht in diesem Ausmaß.

    Bei Microsoft hingegen hat man sich unternehmerisch richtig verhalten. Indem man den Standard nur teilweise unterstützt hat, hat man die Chancen der Konkurrenten noch weiter verringert. Microsoft in dieser Hinsicht irgendeinen Vorwurf zu machen, halte ich für absolut absurd. Man hat mit dieser Strategie das erreicht, was gut für die Aktionäre und auch die Microsoft-Mitarbeiter ist. Dabei hat man aber keine Gesetze verletzt. Was sollte man von einem kommerziellen Unternehmen mehr erwarten? Ein Hand voll Open-Source-Fans glücklich zu machen, gehört sicher nicht dazu. Den Fehler begehen vor allem die Microsoft-Konkurrenten, die ihr Heil in nicht-kommerziellen Organisationen suchen, anstatt konkurrenzfähige Produkte auf den Markt zu bringen. Das wird nie und nimmer funktionieren.

  19. Kommentar von alex am 29.05.05 19:00:

    w3c hat html erfunden. gäbe es kein html und hätte jeder browser eine eigene sprache, dann wäre internet nicht das, was er heute ist. dann würde eine seite mit , die andere mit usw anfanen. dann bräuchtest du für jede seite einen eigenen browser. ich finde w3c macht ihren job gut. auch wenn nur 3.9% der webseiten sich daran ohne einen eizigen fehler halten. eigentlich halten sich alle seiten mehr oder weniger daran, sonst könnte der browser sie nicht anzeigen

  20. Kommentar von Michael Pietroforte am 29.05.05 19:53:

    >> gäbe es kein html und hätte jeder browser eine eigene sprache, dann wäre internet nicht das, was er heute ist.

    Genau! Und das wäre eigentlich eine tolle Sache.

    >> dann würde eine seite mit , die andere mit usw anfanen. dann bräuchtest du für jede seite einen eigenen browser.

    Das ist der Punkt. So stelle ich mir das Internet der Zukunft vor. Übrigens, das Zusammenwachsen von IIS und ASP.NET lässt schon erahnen, wohin die Reise geht. Schauen wir uns 5 Jahre nach Longhorn das Internet noch mal an. Ich glaube, es wird kaum wieder zu erkennen sein.

  21. Kommentar von alex am 29.05.05 20:27:

    @Michael Pietroforte
    das ist auch das was ich meine. man bracuht standarts. auch wenn sie sich jetzt noch nicht durchsetzen. irgendwann wird es schon sein. frage ist nur wann

  22. Trackback von A2O — Business pur am 25.04.05 12:42:

    Wie CSS-Evangelisten den Weg mit Steinen pflastern …

    Wie man mit CSS Kunden verliert (en) titelt ein Blog seinen Eintrag und zeigt zwei Screenshots eines Shops.

    Der Webdesigner hat W3C-konformen Quelltext geschrieben. Soll man ihm einen…

  23. Kommentar von Thomas am 13.07.05 00:03:

    Ist dein Artikel ein Scherz, M.P.? Das Internet, so groß und vielfältig wie es heute ist, gäbe es nicht ohne W3C-Empfehlungen. Oder meinsts du, es reicht, ein paar größere Firmen koordinationslos zusammenzubringen und sie walten zu lassen, wie sie wollen?
    Auch wenn nur wenige Seiten 100%ig valide sind, so verwenden sie doch ALLE W3C-„Produkte“. Von gescheitert kann daher gar nicht die Rede sein. Gescheitert ist man damit, dass HTML wie eine Programmiersprache total fehlerfrei sein müsste/sollte/könnte. Aber mit XHTML und dem richtigen Content Type ist man auf dem Weg dahin.
    Microsoft ist selbst Teil von W3C. Oder war es mal. Wenn jeder Browser die W3C-Empfehlungen vollständig umsetzen würde, könnten große Firmen ohne Probleme ein paar neue Features ausprobieren und sehen, ob sie von der Mehrheit angenommen werden oder nicht. Dann wär das weniger das Problem.
    Wenn es aber gar keine Standards gäbe, wäre die WWWelt sehr chaotisch.

    Streich auch gleich die Meterkonvention – die Vereinigsten Staaten verwenden ja immer noch ihre Fuß und Meilen…
    Oder verbrennen wir DIN A4 und gehen ins papierne 19. Jahrhundert zurück. Kein Problem…
    Hm, wie wäre es, PHP und andere Sprachen Browser-ähnlicher mit Fehlerkorrektur zu interpretieren. Sich 100%-ig an die Vorgaben halten zu müssen, ist viel zu aufwendig…

    PS: Gib mal Beispiele, was an W3C-Empfehlungen so schädlich und „einengend“ sein soll. Dann kann man drüber reden. Ansonsten halte ich deine Aussagen für „aussagelos“.

    🙂

  24. Kommentar von Michael Pietroforte am 13.07.05 22:17:

    >> Das Internet, so groß und vielfältig wie es heute ist, gäbe es nicht ohne W3C-Empfehlungen. Oder meinsts du, es reicht, ein paar größere Firmen koordinationslos zusammenzubringen und sie walten zu lassen, wie sie wollen?

    Diese „koordinationslose Zusammenbringen“ nennt man im Allgemeinen „freie Marktwirtschaft“. Das funktioniert auch im Internet prima. Die meisten erfolgreichen Dateiformate im Internet basieren auf proprietären Standards.

    >> Auch wenn nur wenige Seiten 100%ig valide sind, so verwenden sie doch ALLE W3C-?Produkte?.

    Die Leute verwenden HTML und schauen, ob ihre Seiten im IE richtig dargestellt werden. Für das W3C interessiert sich nur eine Minderheit der Webdesigner.

    >> Gib mal Beispiele, was an W3C-Empfehlungen so schädlich und “einengend? sein soll.

    Schau dir die Webseiten an, wie sie vor 5 Jahren ausgesehen haben. Siehst du einen Unterschied? Ich nicht. Das W3C lähmt Innovationen in diesem Bereich und hat damit letztlich zu Microsofts Browsermonopol mit beigetragen.

  25. Kommentar von Thomas am 14.07.05 11:11:

    Zuerst einmal denke ich, dass Du die Ziele des W3C entweder verkennst oder gar nicht kennst. Und Du hast anscheinend ganz andere Vorstellungen von einem freien Internet als alle anderen Kommentatoren. Gefällt dir sowas: http://de.selfhtml.org/xml/intro.htm#softwaremarkt nicht? Anscheinend.

    Willst Du allen Ernstes HTML mit PDF und anderen Dateiformaten vergleichen? Jemand hat es hier schon angesprochen: Ich will nicht zum Surfen x verschiedene Programme benutzen müssen, wie das bei Videoformaten der Fall ist. Ich will mit einem Programm (und zwar einem MEINER Wahl!) jede Seite im Internet zumindest lesen und ansehen können.

    > Die Leute verwenden HTML und schauen, ob ihre Seiten im IE richtig dargestellt werden. Für das W3C interessiert sich nur eine Minderheit der Webdesigner.

    Das findest du also gut? Wo ist da der freie Wettbewerb? Und trotzdem: Sie verwenden alle mehr oder weniger W3C-Empfehlungen.

    >Schau dir die Webseiten an, wie sie vor 5 Jahren ausgesehen haben. Siehst du einen Unterschied? Ich nicht. Das W3C lähmt Innovationen in diesem Bereich und hat damit letztlich zu Microsofts Browsermonopol mit beigetragen.

    Ich sehe das umgekehrt. Das MSIE-Monopol hat zum Stillstand im WWW beigetragen. Schließlich ist es dieses Produkt, das seit Jahren nicht aktualisiert wurde und am Stand von vor 4 Jahren stehen geblieben ist. Da viele nur für den MSIE schreiben, reizen sie die heutigen Möglichkeiten von CSS und anderen Formaten nicht aus. Dann kann sich ja nichts geändert haben. MSIE hat selbst auch nichts Neues, unabhängig von oder in Zusammenarbeit mit dem W3C, präsentiert. Wo ist da irgend ein Fortschritt seitens Microsoft?

    Nebenbei, welcher Browser kann heute Netscapes „layer“ darstellen? Diejenigen, die damals dieses Element benutzten, konnten sich nicht lange dran erfreuen. Firmen ändern ihre Strategien sehr schnell. Möchtest Du davon abhängig sein? Wettbewerb ja, aber bitte nicht auf Kosten der Benutzbarkeit.

    Kosten für Anpassung an mehrere Entwicklungen in verschiedenen Browsern gleichzeitig wären immens höher als sich einmal mit Webstandards zu beschäftigen, damit man auch weiß, was man tut und wofür manche Geld verlangen.

    PS: Hier geht es nicht um eine böse *uuuuh* Anti-Microsoft-Verschwörung.

  26. Kommentar von Michael Pietroforte am 15.07.05 22:12:

    >> Ich will nicht zum Surfen x verschiedene Programme benutzen müssen, wie das bei Videoformaten der Fall ist. Ich will mit einem Programm (und zwar einem MEINER Wahl!) jede Seite im Internet zumindest lesen und ansehen können.

    Ich will das schon. Der Vorteil liegt auf der Hand. Anzeigeprogramm und Dateiformat sind optimal aufeinander abgestimmt. Neue Features im Reader können häufig nur dann eingeführt werden, wenn man das Format erweitert. PDF ist ein gutes Beispiel. Ich bin heute oft gezwungen HTML nach PDF zu konvertieren, weil die jämmerlichen Features aller Webbrowser tatsächlich nur zum Browsen taugen, aber eben nicht zum lesen. HTML hängt hoffnungslos in seinen Möglichkeiten proprietären Formaten wie PDF hinterher. Der Start des passenden Readers lässt sich im Übrigen vollkommen automatisieren.

    >>Ich sehe das umgekehrt. Das MSIE-Monopol hat zum Stillstand im WWW beigetragen.

    Das W3C hat maßgeblich an der Entstehung des MSIE-Monpols mitgewirkt. Wenn all Browser im Wesentlichen das gleiche Dateiformat anzeigen können, gewinnt natürlich der Browser, der schon vorinstalliert ist. Würden jedoch andere Browserhersteller eigenmächtig coole neue Features in HTML einführen, ohne erst lang den Segen der W3C-Beamten abzuwarten, hätten Anwender einen Grund sich einen weiteren Browser zu installieren

  27. Kommentar von Thomas am 16.07.05 02:35:

    Michael, deine Vorstellung führt auch zu Monopolen. Unweigerlich. Siehe PDF oder Macromedia Flash oder GIF usw. usf. Also würde ich da keine großen Vorteile sehen zum heutigen Stand. Und es würde zu einer Flut an Programmen und Plug-Ins führen, die nötig sein würden, um im WWW zu surfen.

    Hm, da du teilweise nicht auf Argumente eingehst und es auch etwas müssig ist, mit dir zu diskutieren – wir werden uns eh nie annähern in unseren Vorstellungen -, belassen wir es bei diesem Stand der Dinge.

    Zumindest deine Idee ist mal was Neues im Denkansatz. Auch wenn ich dem nichts abgewinnen kann.

    Meine Verehrung