Querdenken mit Six Thinking Hats als Kreativitätstechnik nutzen

Der Begriff laterales Denken (Querdenken) wurde 1967 von Edward de Bono geprägt. Es ist paralleles Denken, um etwas aus verschiedenen Perspektiven zu betrachten. Paralleles Denken fällt Menschen schwer. Um dies leichter durchführen zu können, empfiehlt de Bono die Methode “Six Thinking Hats”.

“Six Thinking Hats” nach de Bono

Es wird eine Gruppe von mindestens 6 Teilnehmern gebraucht. Die 6 Hüte (oder Denkweisen) sind farblich gekennzeichnet.

File:Edward de Bobo Six hats.png

  • Weisser Hut: Fakten; Neutrale Haltung und objektive Information vertreten
  • Roter Hut: Emotionen; Gute Gefühle, Intuition und Vorahnungen einbringen
  • Schwarzer Hut: Kritik; Analyse, Risiko, Probleme und negative Effekte darstellen
  • Gelber Hut: Optimismus; Positives Denken, Vorteile, und optimales Szenario ausmalen
  • Grüner Hut: Kreativität; Theorien, Möglichkeiten und Ideen vorstellen
  • Blauer Hut: Beobachter und Moderator; Kontrolle  des Prozesses und der anderen Hüte, Organisation und Überdenken der vorgebrachten Inhalte

Jeder Teilnehmer zieht eine Karte mit der Farbe des Hutes, den er “aufsetzen” soll.

  1. Der Weisse Hut präsentiert die Fakten
  2. Der grüne Hut bringt die Ideen vor
  3. Der gelbe Hut prüft die Ideen und ermittelt die Vorteile; Der schwarze Hut liefert die Nachteile
  4. Der rote Hut ermittelt die Stimmung und zeigt Alternativen auf
  5. Der blaue Hut fasst das Ergebnis zusammen oder vertagt das Meeting

Vorteile der Six Thinking Hats (Denkhüte)

  • Offenere Diskussion möglich, da ein Rollenspiel stattfindet.
  • Meinungen werden gesagt und die Schweigespirale wird vermieden
  • Es gelten Regeln für die Methode
  • Konzentration auf die Kernelemente
  • Prüfung von Entscheidungen sind im Vorfeld möglich

Fazit:

Die Methode der Denkhüte (Six Thinking Hats) bietet viele Vorteile. Sie sorgt bei richtiger Vorgehensweise im Rollenspiel, anders als der in der Rhetorik bekannte Advokatus Diaboli, für keine Konflikte. Eine insgesamt empfehlenswerte Methode.

William Edwards Deming: Grundlegende Fehler, die Verbesserung in Unternehmen behindern

William Edwards Deming, ein weltbekannter Pionier des Qualitätsmanagement entwickelte die prozessorientierte Sicht bei Management Abläufen in Unternehmen. Daraus entstanden später verschiedene Normen und Lehren zur Qualität. Deming analysierte im Rahmen seiner Qualitätsmanagement Lehre unter anderem, welche Fehler sich negativ auf Unternehmen auswirken.

  • Wenn ein Unternehmen hauptsächlich auf kurzfristigen Gewinn aus ist, dann kann keine strategische Planung vorgenommen werden. Mittelfristig werden solche Unternehmen durch Ihre planloses Vorgehen anderen unterliegen. Denn ohne Plan gibt es ständig wechselnde Ziele.
  • Das Gleiche gilt, wenn der Zweck einer Organisation oder Abteilung ständig verändert wird. Mit “kreativer Buchhaltung” können Unternehmen durch Entlassungen, Fusionen, Devisenbewertungen und anderen Tätigkeiten ständig positive Zahlen erzeugen, bis ein Unternehmen zusammenbricht.
  • Durch Leistungsbewertung von Mitarbeitern wurden noch nie langfristig Verbesserungen erzielt. Vielmehr gibt es Mitarbeiter, die das System zu Ihren Gunsten manipulieren können. Besser ist es, die Mitarbeiter individuell auszubilden und zu fördern. Kein erstelltes Profil vermag den Menschen, seine Arbeitsleistung und -qualität richtig darzustellen.
  • Hier ist das “Weisse Ritter Syndrom” gemeint. Ein oder mehrere Manager treten in einem Unternehmen als Retter auf. Sie veranlassen viele Veränderungen und zeigen auf kurzfristig erreichte, positive Ergebnisse. Sie verlassen das Unternehmen mit einer persönlichen Gewinnmitnahme, bevor langfristig negative Auswirkungen Ihrer Tätigkeit zu sehen sind.
  • Wichtiger als die bekannten oder sichtbaren Zahlen (manchmal aus KPI genannt) sind die unsichtbaren Zahlen die Unternehmen nicht zur Verfügung stehen. Zum Beispiel die Softskills der Mitarbeiter, der entstandene Nutzen oder Schaden für Kunden. Vorhandene Zahlen bilden immer nur die Vergangenheit ab.
  • Gesunde und motivierte Mitarbeiter sorgen für geringe Kosten. Daher sollte die Erhaltung von Gesundheit und Motivation ein ständiges strategisches Ziel eines Unternehmens sein.
  • Es ist eine Belastung für die zukünftige Entwicklung, wenn Unternehmen durch unzureichende Recherche, mangelhafte Qualität oder durch Absichten die Verträge zu brechen. Dann sind nachfolgend hohe Kosten zu bezahlen. Daher sollten Unternehmen Geschäftsbeziehungen bevorzugen, die auf gegenseitigen Vertrauen beruhen.

Fazit:

Die Demingschen Regeln für ein erfolgreiches Management sind von der Unternehmenskultur abhängig. Was lebt, unterliegt der Veränderung. Bei richtiger Veränderung kann mittel- oder langfristig mit einer positiven Entwicklung gerechnet werden.

Demings Erkenntnisse als Statistiker und Qualitätsexperte haben vor allem Japans Top Manager seit den 1960-er Jahren geprägt und zeigen sich weltweit in vielen Produkten der heutigen Zeit. Um Demings Ideen nicht zu vergessen, wurde in der Schweiz das Deming Institut gegründet.

Was bedeutet “Information” im Kontext der Informatik

Der Begriff Information ist in der römischen Antike zum Beispiel durch Cicero als Vorstellung der Götter “informatio dei” genutzt worden. Augustinus hat mit “informatio sensus” den Prozess der sinnlichen Wahrnehmung auch als Unterweisung und Belehrung abgeleitet. Im 15. und 16. Jahrhundert wurde “informare” für die Tätigkeit der Benachrichtigung genutzt.

Der Mathematiker Claude E. Shannon definierte 1948 in seinem Aufsatz ” A Mathematical Theory of Communication” den Begriff Information im Kontext der Nachrichtentechnik. Daraus entstanden Wissenschaftsbereiche wie Informationswissenschaft und Informatik. Aber auch die Disziplinen Soziologie, Medientheorie und Philosophie wurden dadurch beeinflusst.(1)

Betrachten wir die nun den Prozess der Entstehung von Information und Wissen

Daten sind in der Informatik Zeichen, die meist maschinell bearbeitbar sind. Stehen diese Zeichen im Kontext einer Bedeutung, dann werden aus strukturierten Daten Informationen. Aus Informationen wird Wissen, wenn Menschen durch Beobachtung oder Erfahrung auf Zusammenhänge schließen. Nach der Philosophie Kants wird dies mit durch den Verstand kontrollierte Vernunft erreicht.

Beispiel

Daten 08937432
Information (durch Kontext “Telefonnummer”) 08937432
Wissen (durch Erfahrung oder Beobachtung: München hat die Vorwahl “089”) 08937432

 

In diesem Zusammenhang gibt es eine asiatische Sichtweise, die ein berühmter asiatischer Philosoph schrieb (2)

Die Nichtwissenheit wissen
ist das Höchste.
Nicht wissen, was Wissen ist,
ist ein Leiden.
Nur wenn man unter diesem Leiden leidet,
wird man frei von Leiden.
Daß der Berufene nicht leidet,
kommt daher, daß er an diesem Leiden leidet;
darum leidet er nicht.

 

Quelle: (1) Alexander Roesler/Bernd Stiegler “Grundbegriffe der Medientheorie”; (2) Laotse

Die ABC Analyse in 4 Schritten durchführen

Die ABC-Analyse wird unter Anderem zur Planung, Kostenminimierung und Entscheidungsfindung eingesetzt wird. Die ABC Analyse wurde H. Ford Dickie erstmals beschrieben. Die Basis dafür bilden das Pareto Prinzip (die 80/20 Regel) und die Lorenz Kurve. Eingesetzt wird die ABC Analyse bei betriebswirtschaftlichen Analysen, Kosten, Lagerbeständen, Umsätzen, aber auch in der Personalwirtschaft und der Fertigung eingesetzt.

 

Daten der ABC-Analyse

Typ Umsatz in Mio. €
 Reifen  26,1
 Felgen  19,8
 Öl  35,6
 Zündkerzen  6,4
 Reinigungsmittel  16,9
 Lampen  2,9
 Autoradio  12,3
 KFZ-Ersatzteile  44,1
 Scheibenwischer  2,2
Gesamtsumme 166,3

 

Schritt 1 der ABC-Analyse

Ergänzen Sie die Tabelle um die Spalten Anteil in %Kumulierte % und Klasse.
Dann sortieren Sie absteigend den Umsatz in Mio. €.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1
Öl 35,6
Reifen 26,1
Felgen 19,8
Reinigungsmittel 16,9
Autoradio 12,3
Zündkerzen 6,4
Lampen 2,9
Scheibenwischer 2,2
Gesamtsumme 166,3

 

Schritt 2 der ABC Analyse

Als nächstes wird in der mittleren Spalte der prozentuale Anteil ausgerechnet.

Die Formel lautet: Anteil in % = Umsatz des Produkts/Gesamtsumme * 100

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52
Öl 35,6 21,41
Reifen 26,1 15,69
Felgen 19,8 11,91
Reinigungsmittel 16,9 10,16
Autoradio 12,3 7,40
Zündkerzen 6,4 3,85
Lampen 2,9 1,74
Scheibenwischer 2,2 1,32
Gesamtsumme 166,3

 

 Schritt 3 der ABC Analyse

Im weiteren Schritt werden die Anteile in % kumuliert (summiert) und in die Spalte Kumulierte % eingetragen.

Beispiel: Öl (kumulierte %) = 26,52 + 21,41 = 47,93; Reifen (kumulierte %) = 47,93 + 15,69 = 63,62

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52
Öl 35,6 21,41 47,93
Reifen 26,1 15,69 63,62
Felgen 19,8 11,91 75,53
Reinigungsmittel 16,9 10,16 85,69
Autoradio 12,3 7,40 93,08
Zündkerzen 6,4 3,85 96,93
Lampen 2,9 1,74 98,68
Scheibenwischer 2,2 1,32 100
Gesamtsumme 166,3

 

Schritt 4 der ABC Analyse

Im letzten Schritt werden die untersuchten Daten in drei Klassen eingeteilt. Die A Klasse bei meist 75% – 80%. Die B Klasse bei 15% – 20% und die C Klasse bei 5%. Die Summe der drei Klassen beträgt immer 100%.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52  A
Öl 35,6 21,41 47,93  A
Reifen 26,1 15,69 63,62  A
Felgen 19,8 11,91 75,53  B
Reinigungsmittel 16,9 10,16 85,69  B
Autoradio 12,3 7,40 93,08  B
Zündkerzen 6,4 3,85 96,93  C
Lampen 2,9 1,74 98,68  C
Scheibenwischer 2,2 1,32 100  C
Gesamtsumme 166,3

 

Fazit:

Mit Hilfe der ABC Analyse lassen sich

  • Schwerpunkte ermitteln
  • Prioritäten festlegen
  • Unwesentliches von Wesentlichen unterscheiden

Diese häufig eingesetzte Methode sollte in keinem “Werkzeugkasten” fehlen.

Erweiterung der Hoshin Kanri Methode durch agiles Management

Hoshin Kanri ist ein aus Japan stammendes Planungs- und Management Konzept. Das Konzept hat sich in den 60er Jahren bei einigen Unternehmen entwickelt. Es wurde durch den PDCA Zyklus von William Edwards Deming und dem “Management mit Zielvorgaben” durch Peter Drucker beeinflusst. In den 80er Jahren wurde dieses Konzept von vielen Unternehmen in den USA wie zum Beispiel Hewlett Packard und Intel übernommen. Es basiert auf  zwei Anwendungsebenen, die Dr. Yoij Akano in seinem Buch beschrieben hat.

1. Strategische Planungsebene des Hoshin Kanri

In der strategischen Planungsebene werden Unternehmensziele mit einem 5 Jahres- oder manchmal einem 2 Jahres-Plan beibehalten. Die Pläne sind auf das Erzielen von signifikanten Änderungen ausgerichtet und werden mit entsprechenden Kennzahlen gemessen.

2. Agile Entwicklung

Agile Entwicklung wurde Anfang der 1990er Jahre begründet. Die Grundsätze agiler Entwicklung sind:

  • Menschen und deren Interaktionen zählen mehr als modulierte Prozesse
  • Das Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans
  • Zusammenarbeit mit dem Kunden ist wichtiger als eine Vertragsverhandlung
  • Funktionierende Prozesse sind wichtiger als umfassende Dokumentation

3. Alltägliche Ebene des Hoshin Kanri

Hier wird das alltägliche Geschäft getätigt. Alle wertschöpfenden Tätigkeiten werden gemessen und bewertet. Durch Kaizen kann der Prozessinhaber durch Änderungen Prozessverbesserungen erreichen.

Dazu werden Indikatoren in den Prozessen ermittelt. Ausgewählte Kreisläufe werden in weitere, kleinere Elemente zerlegt. Dann kommt eine “agile” Hoshin Kanri Methode zum tragen. Diese Elemente sind wie spiralförmige Kreisläufe zu betrachten und zu messen. So lassen sich Planungselemente modular wechseln, ohne das Gesamtkonzept in Frage stellen zu müssen. Die Kontrolle auf der strategischen Ebene muss dazu direkt, fast in Echtzeit tief in die alltägliche Ebene messen können, um dem Management das notwendige Feedback zur Entscheidung und daraus resultierenden agilen Handlung bieten zu können. Dies ist setzt eine spiralförmige Entwicklung in Gang die auch bei Veränderung Entwicklungszyklen überspringen kann. So wird Hoshin Kanri dynamisiert. Es können Ressourcen und Kosten gespart werden.

Voraussetzung dazu ist die Akzeptanz, dass der ständige Einsatz des Managements und aller Mitarbeiter für diese Methode notwendig ist. Durch die ständige Verbesserung und eine abgekoppelte Messung von unabhängigen Prüfern lassen sich markttragende Ergebnisse erzielen. Unabhängige Prüfer sind notwendig, damit der Entwickler nicht gleichzeitig der Prüfer ist!

Scrum – Agile Web- und Software Entwicklung

Scrum wurde in einem Projekt im Zuge der Zusammenarbeit von Ikurjio Nonaka und Jeff Sutherland entwickelt. Mit Scrum versucht man Anpassung, Transparenz und Kontrolle in der Software Entwicklung weitestgehend zu vereinfachen. Dadurch wird eine kostengünstige, schnelle  und hochwertige Entwicklung von Software Produkten und -Dienstleistungen ermöglicht. Scrum basiert auf Erfahrung und wird iterativ erweitert. Scrum benutzt Rollen mit unterschiedlichen Aufgaben und Verantwortungen.

Rollen bei Scrum

Das Entwickler Team liefert die vom Product Owner gewünschten Produktteile oder Dienstleistungen in der gewünschten Reihenfolge. Zudem sind die Entwickler für die Qualität des Produkts verantwortlich. Dazu werden Qualitätsstandards vereinbart.

Der Scrum Master kümmert sich als Führungskraft um das Entwickler Team, gehört dem Team aber nicht an. Er kümmert sich um die Organisation und hilft Störungen, Konflikte und Hindernisse zu beseitigen.

In der Rolle als Product Owner ist man für die Konzeption, Festlegung der Produkteigenschaften und die Priorisierung verantwortlich. Er steuert damit den wirtschaftlichen Nutzen für das Unternehmen, ist aber kein Vertreter des Kunden.

Der Kunde oder Auftraggeber wird als Customer dem Product Owner aufzeigen, was das Produkt für Eigenschaften haben soll. Zudem wird der Customer ab einer frühen Phase periodisch das zu entwickelnde Produkt prüfen und Feedback an den Product Owner geben.

Das Management hat bei der Bereitstellung der Ressourcen und dem Ausräumen von Hemmnissen zu unterstützen. Dadurch werden die Rahmenbedingungen stabilisiert.

Die User sind die zukünftigen Nutzer des Produkts oder der Dienstleistung. Daher sind Sie in der Lage die Funktionalität des Produkts zu beurteilen. Zudem können Sie das Produkt ab einer frühen Phase regelmäßig, zum Beispiel nach einem Entwicklungszyklus, ausprobieren und Ihre Ergebnisse und Veränderungsvorschläge mitteilen. diese kann der Product Owner aufgreifen und zur weiteren Entwicklung einfließen lassen.

Dazu wurde im Jahre 2001 das Agile Manifest für Scrum entwickelt, das ich hier angepasst habe.

Agiles Manifest

  • Eine beständige Zusammenarbeit mit dem Kunden als Partner steht über den Verträgen
  • Kommunikation, Mut und die Offenheit für Änderungen gilt mehr als das genaue Befolgen eines festgelegten Plans
  • Menschen und Zusammenarbeit gelten mehr als Werkzeuge und Prozesse, ersetzen diese aber nicht
  • Funktionierende Programme sind höher einzustufen als ausführliche Dokumentation.

Fazit:

Lean Production in japanischen Unternehmen verfolgt ähnliche Ansätze wie Scrum und nutzt für eine bessere Wertschöpfung unter anderem starkes Teamworking und erfolgreiches Wissensmanagement. Hier sehe ich auch den wichtigen Unterschied. Es wird auch bei Scrum Dokumentation gebraucht, wenn diese nicht “Just in Time” zur Verfügung steht, dann verliert der Scrum Prozess an Effektivität!

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Alternativen, um Sicherheitslücken wie Meltdown … zu vermeiden

Deutschland hat Alternativen nötig. Denn Merkel Aussage „Das ist Alternativlos“ treibt Deutschland und Europa in die Hände von transatlantischen Gruppen, die Deutschland und Europa als Konkurrenten sehen. Trotz allem sind Merkel und weitere Abgeordnete Mitglieder mit transatlantischen Verbindungen wie  z. B. bei der Atlantikbrücke und haben die Interessen der deutschen Bevölkerung verkauft.

Die USA entwickeln mit Intel und AMD Hard und Software, die nach US-Geheimgesetzen von den westlichen Diensten ausgespäht werden können.

 

Daher hat China 2004 mit der Entwicklung eigener Prozessoren begonnen um die Interessen des chinesischen Volkes zu sichern. Die enthalten keine Backdoor für westliche Geheimdienste.  Auf deren Begehren wird bereits in einem Artikel aus den Jahr 2013 hingewiesen:

NSA May Have Backdoors Built Into Intel And AMD Processors

Der weiterführende Artikel des „Australian Financial Review“ wurde vor einiger Zeit gelöscht und bei Nachfrage wird dies von US Behörden wie seit Jahrzehnten als „Verschwörungstheorie“ abgetan.

Alternativen von Zhaoxin

Einer der chinesischen Hersteller heißt Zhaoxin. Diese bringen eine neue CPU Generation KX-5000 (Wudaokou) auf den Markt . Nach einer Meldung von Weiwenku hat ein KX-5000 ca. 2,1 Milliarden Transistoren. Das Topmodell KX-U5680 mit 2 GHz, erreicht im Cinebench R11.5 4,01 Punkte. Das ist etwas langsamer als ein Intel Core i3-6100 mit zwei Kernen plus Hyperthreading. Die neue Prozessorgeneration ist nicht für Meltdown anfällig, aber für eine nicht genannte Variante von Spectre.

Zhaoxin gehört überwiegend dem chinesischen Staat und wird nach wikichip.org folgendermaßen  beschrieben:

… In case you’ve never heard about Zhaoxin, they are a Chinese microprocessor designer that has been working on developing a domestic x86 CPU microarchitecture. Being partially owned by VIA Technologies most likely means they are covered by VIA’s x86 cross-license agreement, although VIA refused to confirm this when we asked. The 2010 FTC settlement required Intel to modify agreements with AMD, Nvidia, and Via to allow them to undergo mergers and joint ventures with other companies without the threat of being sued for patent infringement. Zhaoxin is majority owned (80.1%) by the Shanghai Municipal Government and the push for domestic x86 chips comes as part of their national security initiative which calls for the reduction in reliance on foreign products and greater control over their own intellectual property (i.e., the hardware in this case). …

Kommentar zu Spectre und Meltdown: Zeigen wir Monopolisten den Mittelfinger

Wie kann der Qualitätsstandard Hi-Fi heute geprüft werden?

In den 1960 Jahren Hi-Fi durch die DIN-Norm 45500 festgelegt. Die Norm für High Fidelity wurde 1996 durch die neue EN 61305 ersetzt hat keine qualitätsbestimmende Rolle mehr. Mit der EN 61305 werden nur noch die Messverfahren und Angabe der Leistungswerte festgelegt. Viele Hersteller schreiben heute keine oder wenige Leistungswerte auf die Verpackung ihrer Produkte. Bei einer Stichprobe mit Headsets hatten ein Drittel der Produkte keinerlei technische Angaben außer der Länge des Anschlusskabels.

Aber erfüllen Produkte bei den Angaben die bewährten Normen nach DIN 45500 oder DIN 45511 (für Studiogeräte)?
Denn heute wird erwartet, dass die Geräte diese Normen weit übertreffen. Den größten Schwachpunkt in der Kette zur Reproduktion von Musik bilden schon immer die Lautsprecher und Mikrofone. Daher fasse ich hier wichtige Kennwerte zusammen.

Klirrfaktor

Der Klirrfaktor k gibt den Anteil am Gesamtsignal an, in welchem Maße die harmonischen Oberschwingungen, eine sinusförmige Grundschwingung überlagern. Die DIN Norm 45500 schreibt einen Klirrfaktor von maximal 1% fest.

Frequenzgang

Hier bietet die alte Norm Mindestanforderungen. Die Toleranz im Lautstärke-Verhalten über den gesamten Frequenzbereich wird bei den heutigen Produkten nicht angegeben. So kann ein großer Frequenzgang aufgedruckt werden und die Kopfhörer oder Lautsprecher sind trotzdem minderwertig.

Der Frequenzgang von Geräten nach DIN 45500 hat in einem Frequenzgang von 250 Hz bis 6300 Hz eine Toleranz von 5 dB. Die strengere DIN-Norm 45511 für Studiogeräte legt für einen Frequenzbereich von 80 Hz bis 8000 Hz eine Toleranz von 3 dB fest.

Mikrofone

Gute Mikrofone bieten einen Frequenzgang von 50 Hz bis 12,5 kHz mit einer Toleranz von 3 dB.

Lautsprecher

Die Minimalanforderung ist ein Frequenzgang von 250 Hz bis 8000 Hz bei einer Toleranz von maximal 3 dB und der Klirrfaktor soll kleiner 1% sein.

Kopfhörer

Das menschliche Ohr hört Töne von ca. 16 Hz bis 20 kHz. Mit zunehmenden Alter nimmt das Hörvermögen im hohen Frequenzbereich ab. Kopfhörer klingen meist lauter als Lautsprecher, da sie direkt am Ohr angebracht sind.

Es gibt geschlossene Systeme die den Umgebungslärm dämpfen. Bei offenen Systemen dringt der Schall aus der Umwelt ungehindert zu Ohr vor.

Weitere Literatur:

https://de.wikipedia.org/wiki/High_Fidelity

http://www.hifimuseum.de/

Mebibyte oder Megabyte – Was ist der Unterschied?

Die Angaben der Speichergröße ist manchmal verwirrend. Denn früher war ein ein Kilobyte mit 1024Byte spezifiziert. Das ist nach der heute gültigen Benennung ein Kibibyte.

Binärpräfixe nach IEC

Der Binärpräfixe sind Vielfache von Zweierpotenzen mit einer Schrittweite von 10 beim Exponenten. Sie werden für die Größenangaben von Datenmengen in der Informatik verwendet. Dazu gehören die Bezeichnungen Kibibyte, Mebibyte, Gibibyte. Die Umstellung auf Binärpräfixe wurde 1996 vom IEC vorgeschlagen und die die Hersteller folgten der Empfehlung in den nachfolgenden 10 Jahren.

Dezimalpräfixe nach SI

Parallel dazu gibt es  die Dezimalpräfixe nach den Normen der SI. Hier ist die Basis 10 und der Exponent wird mit der Schrittweite 3 verändert.

Potenzwert = BasisExponent

Dezimalpräfixe gemäß SI Unter-schied
gerundet
Binärpräfixe gemäß IEC
Name Sym Anzahl Bytes Name Sym Anzahl Bytes
Kilobyte kB 1 000 = 103 2,4 % Kibibyte KiB 1 024 = 210 
Megabyte MB 1 000 000 = 106 4,9 % Mebibyte MiB 1 048 576 = 220 
Gigabyte GB 1 000 000 000 109 7,4 % Gibibyte GiB 1 073 741 824= 230 

Durch die unterschiedlichen Zahlensysteme ergeben sich verschiedene Speichergrößen. Je größer das Speichervolumen eines Datenträgers, um so größer ist der Unterschied der wirklichen Datenmenge. Dieser Unterschied der Datenmenge wird von den Herstellern beim Verkauf von Datenträgern genutzt. So finden Sie inzwischen auf den verkauften Datenträger meist die Angabe nach dem Dezimalpräfix. Die Anbieter können so Kosten sparen.

Browser Nutzung in Deutschland

Für Entwickler von Webseiten ist es wichtig zu wissen, welche Browser verwendet werden. Dazu habe ich eine Statistik über einen Zeitraum von einem Jahr erstellt. Die Daten wurden von Global Stats Counter zur Verfügung getellt.

Browser Anteil in Deutschland (2018)

Führend ist weiterhin der Chrome Browser von Google. Der Marktanteil von Chrome beträgt 44,8% im Januar 2018, wenn die Chromium Varianten dazugezählt werden. Der Marktanteil von Mozilla Browsern liegt bei 17,49% und Microsoft Browsern werden von 10,39% Nutzern eingesetzt.

Die Erhöhung der Geschwindigkeit des Firefox Browsers konnte keine Verbesserung der Marktanteile bewirken.

Die Entwicklung von HTML 5 bei WhatWG und W3C

Vor längerer Zeit haben sich zwei Richtungen bei der Weiterentwicklung von HTML5 ergeben.

Zügige Weiterentwicklung  von HTML durch die WhatWG

Die WhatWG wurde nach einem Workshop des W3C gegründet. Mitarbeiter dvon Apple, Google, Microsoft, Mozilla und Opera haben sich zu einer fortlaufenden Weiterentwicklung von HTML ausgesprochen.  Die Entwickler der WhatWG sprechen vom HTML – Living Standard. Ohne diese Gruppe wäre die Weiterentwicklung von HTML auf Grund von mangelndem Interesse des W3C nur langsam voran getrieben worden.

Dokumentation von HTML – Living Standard

HTML5

Späte Erkenntnis des W3C – aber kein Entgegenkommen

Die Anteil der Wichtigkeit von HTML für zukünftige Informations- und Kommunikationsmittel wurde von W3C unterschätzt. Nachdem sich auf Grund von der Freigabe von HTML5 wesentliche Weiterentwicklungen wie Frameworks, modernisierte Browser ergeben haben, gibt es auch hier Neuerungen. Allerdings setzt das W3C auf Versionierung von HTML 5. Aktuell ist die Version HTML 5.2 als Empfehlung erschienen.

Fazit

Nach wie vor liegt die Entwicklung von HTML bei der aktiven WhatWG. Das W3C übernimmt meist wichtige Entwicklungen der WhatWG in ihre Standards. Diese werden weiterhin nicht so häufig aktualisiert wie der Living Standard.