Der Rückkanal der Kommunikation

Im 21. Jahrhundert sind trotz des mehr als 30 jährigen Bestehens der Kommunikation über das Internet massive Kommunikationshemmnisse vorhanden. Dies kann verschiedene Ursachen haben.

So zum Beispiel Unkenntnis, wie die Kommunikation von heute funktioniert.
Oder willentliche Beeinflussung, basierend auf Wünschen der Medieneigner.

 

John F. Kennedy
John F. Kennedy aus der Wikipedia

Denn das, was heute nicht funktioniert, wird bereits von dem am 22.11.1963  ermordeten US Präsidenten John F. Kennedy beschrieben:

Allein das Wort Geheimhaltung ist in einer freien und offenen Gesellschaft unannehmbar; und als Volk sind wir von Natur aus und historisch Gegner von Geheimgesellschaften, geheimen Eiden und geheimen Beratungen.
Wir entschieden schon vor langer Zeit, dass die Gefahren exzessiver, ungerechtfertigter Geheimhaltung sachdienlicher Fakten die Gefahren bei Weitem überwiegen, mit denen die Geheimhaltung gerechtfertigt wird. Selbst heute hat es wenig Wert, den Gefahren, die von einer abgeschotteten Gesellschaft ausgehen, zu begegnen, indem man die gleichen willkürlichen Beschränkungen nachahmt.
Selbst heute hat es kaum Wert, das Überleben unserer Nation sicherzustellen, wenn unsere Traditionen nicht mir ihr überleben. Und es gibt die schwerwiegende Gefahr, dass ein verkündetes Bedürfnis nach erhöhter Sicherheit von den Ängstlichen dazu benutzt wird, seine Bedeutung auf die Grenzen amtlicher Zensur und Geheimhaltung auszuweiten.
Ich beabsichtige nicht, dies zu erlauben, soweit es in meiner Macht steht,…
Denn wir stehen rund um die Welt einer monolithischen und ruchlosen Verschwörung gegenüber, die sich vor allem auf verdeckte Mittel stützt, um ihre Einflusssphäre auszudehnen – auf Infiltration anstatt Invasion; auf Unterwanderung anstatt Wahlen; auf Einschüchterung anstatt freier Wahl; auf nächtliche Guerillaangriffe anstatt auf Armeen bei Tag.
Es ist ein System, das mit gewaltigen menschlichen und materiellen Ressourcen eine eng verbundene, komplexe und effiziente Maschinerie aufgebaut hat, die militärische, diplomatische, geheimdienstliche, wirtschaftliche, wissenschaftliche und politische Operationen kombiniert. Ihre Pläne werden nicht veröffentlicht, sondern verborgen, ihre Fehlschläge werden begraben, nicht publiziert, Andersdenkende werden nicht gelobt, sondern zum Schweigen gebracht, keine Ausgabe wird infrage gestellt, kein Gerücht wird gedruckt, kein Geheimnis wird enthüllt.

Es spielt bei dieser Untersuchung keine Rolle, was für ein Ausgangspunkt in Betracht gezogen wird. Denn es gilt die Ursache zu ergründen.

 

Agiles Projektmanagement mit Kanban

Kanban Logo

Kanban ist eine Methodik zur Optimierung von Arbeitsabläufen, die ursprünglich in der japanischen Automobilindustrie entwickelt wurde. Sie basiert auf dem Prinzip der visuellen Darstellung von Aufgaben, deren Status und Fortschritt, meist auf einem „Kanban-Board“. Dies hilft dabei, Engpässe zu identifizieren, die Arbeitslast zu regulieren und die Effizienz des Teams zu steigern

Wie funktioniert Kanban?

Ein Kanban-System ist ziemlich einfach aufgebaut. Es besteht normalerweise aus einem physischen oder digitalen Kanban-Board und darauf platzierten Kanban-Karten.

Kanban Tafel

Das Kanban-Board ist in mehrere Spalten unterteilt, die den unterschiedlichen Stadien des Arbeitsprozesses entsprechen. Die einfachste Form hat drei Spalten: „Zu erledigen“ (To Do), „In Arbeit“ (In Progress) und „Erledigt“ (Done).

Jede Aufgabe im Arbeitsprozess wird auf einer separaten Kanban-Karte dargestellt. Diese Karte enthält Informationen wie die Aufgabenbeschreibung, den verantwortlichen Mitarbeiter, das Startdatum und das Fälligkeitsdatum.

Wenn eine neue Aufgabe ansteht, wird sie als Karte in die „Zu erledigen„-Spalte eingefügt. Wenn jemand an der Aufgabe arbeitet, wird die Karte in die „In Arbeit„-Spalte verschoben. Sobald die Aufgabe abgeschlossen ist, wird die Karte in die „Erledigt„-Spalte verschoben.

Beispiel zur Nutzung von Kanban

Angenommen, Sie sind Teil eines Softwareentwicklungsteams. Die Kanbantafel des Teams könnte so aussehen:

Zu erledigen
1. Funktion zur Benutzeranmeldung erstellen
2. Datenbank für Benutzerinformationen einrichten
3. Design der Startseite entwerfen

In Arbeit
1. Backend für die Benutzeranmeldung entwickeln
2. Testen der Anmeldungs- und Abmeldefunktionen

Erledigt
1. Spezifikationen für die Anwendungsfälle erstellen
2. Entwurf des Anmeldeformulars

Jeder im Team kann den Status jeder Aufgabe auf der Kanbantafel sehen und so schnell erkennen, welche Aufgaben Priorität haben und wer gerade welche Aufgabe bearbeitet.

Die Grundregel des Kanban-Systems ist es, die Anzahl der gleichzeitig „in Arbeit“ befindlichen Aufgaben zu begrenzen. Diese Begrenzung wird als „Work in Progress“ (WIP) -Limit bezeichnet. Das hilft, Überlastung zu vermeiden und sicherzustellen, dass Aufgaben vollständig abgeschlossen werden, bevor neue Aufgaben in Angriff genommen werden.

Es können Engpässe während der Entwicklung schnell erkannt werden und dadurch können passende Gegenmaßnahmen zur Verbesserung umgesetzt werden.

Fazit

Der Einsatz von Kanban in der Softwareentwicklung bietet eine einfache, aber effektive Methode zur Visualisierung und Kontrolle des Arbeitsflusses. Es fördert Transparenz, Zusammenarbeit und unterstützt die kontinuierliche Verbesserung. Durch die Einführung von WIP-Limits kann Kanban dabei helfen, Multitasking zu vermeiden und die Produktivität zu steigern. Insgesamt kann Kanban wesentlich dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Entwicklungszeiten zu verkürzen.

 

 

Internet der Dinge oder IoT, was ist das?

IoT steht für das Internet der Dinge (Internet of Things). Es bezieht sich auf das Konzept, dass physische Objekte und Geräte miteinander und mit dem Internet verbunden sind. Die Geräte sind in der Lage, Daten auszutauschen und miteinander zu kommunizieren.

Im IoT werden Objekte und Geräte mit Sensoren ausgestattet, die Daten über ihre Umgebung, ihren Zustand oder ihre Leistungsfähigkeit erfassen können. Diese Daten werden dann über Netzwerkverbindungen, wie z. B. drahtlose oder kabelgebundene Verbindungen, an andere Geräte, Systeme oder Cloud-Plattformen übertragen. Dort werden die Daten verarbeitet, analysiert und genutzt, um Erkenntnisse zu gewinnen, Aktionen auszulösen oder Entscheidungen zu treffen.

Durch das IoT werden verschiedene Bereiche des täglichen Lebens und der Industrie transformiert.

IoT Industrie

Beispiele für IoT-Anwendungen im Smart Home

Das Internet der Dinge bietet eine breite Palette von Einsatzmöglichkeiten im smarten Zuhause, in dem vernetzte Geräte und Systeme zu einem intelligenten und automatisierten Wohnraum führen.

1. Hausautomatisierung durch Steuerung, Vernetzung und Sensorik

IoT ermöglicht die Steuerung verschiedener Aspekte des Hauses, einschließlich Beleuchtung, Heizung, Klimatisierung und Sicherheitssysteme. Durch vernetzte Geräte und Sensoren können Benutzer diese Systeme fernsteuern und automatisierte Zeitpläne oder Szenarien erstellen, um Energie zu sparen und den Komfort zu verbessern.

2. Energieeffizienz erhöhen

Durch das Internet der Dinge wird der Energieverbrauch im Smart Home optimiert. Durch Sensoren und intelligente Thermostate können Heizung und Kühlung automatisch an anwesende Personen oder wechselnde Umgebungsbedingungen angepasst werden. Basierend auf Bewegungserkennung und Tageslichtstärke steuern smarte Beleuchtungssysteme die Beleuchtung. Dadurch können Energieeinsparungen erzielt werden.

3. Überwachung ermöglichen

IoT-basierte Sicherheitssysteme ermöglichen die Fernüberwachung des Hauses. Durch vernetzte Kameras, Bewegungsmelder und Tür- und Fenstersensoren erhalten Benutzer Benachrichtigungen bei verdächtigen Aktivitäten. Zugriffskontrollen und Gebäude können auch von Dritten überwacht werden.

4. Haushaltsgeräte und Haushaltsmanagement optimieren

Vernetzte Haushaltsgeräte wie intelligente Kühlschränke, Waschmaschinen oder Staubsaugerroboter können mit dem Internet verbunden werden. Benutzer können diese Geräte über ihre Smartphones steuern, den Betriebsstatus überwachen oder Benachrichtigungen über beendete Aufgaben erhalten. IoT-fähige Geräte können auch die Verbrauchsdaten sammeln, um Ressourcen zu optimieren und die Wartung anmelden.

5. Gesundheits- und Wohlbefinden erhöhen

IoT kann auch bei der Überwachung der Gesundheit und des Wohlbefindens von Personen helfen. Wearables wie Smartwatches oder Fitnesstracker können Daten, wie Herzfrequenz oder Schlafverhalten, sammeln und an das Smart Home-System senden. Dies ermöglicht die Anpassung von Beleuchtung, Temperatur oder Musik, um eine angenehme Atmosphäre zu schaffen.

Diese Einsatzmöglichkeiten zeigen, wie IoT die Funktionalität und den Komfort im Smart Home verbessern kann. Durch die Vernetzung von Geräten und die Integration von Automatisierung und intelligenten Funktionen können Benutzer Energie sparen, die Sicherheit erhöhen und den Wohnkomfort steigern. Es zeigt aber auch, die Gefahren, die George Orwell in seinem berühmten Buch 1984  und Aldous Huxley in Schöne Neue Welt beschrieben haben.

Das Internet der Dinge im Kontext der smarten Fabriken

Das IoT spielt eine entscheidende Rolle bei der Umsetzung von Smart Factories, auch bekannt als Industrie 4.0. Dazu einige Beispiel des IoT in Smart Factories.

1. Überwachung und Steuerung von Anlagen

Durch die Integration von Sensoren in Maschinen und Anlagen können Echtzeitdaten über deren Zustand und Leistung gesammelt werden. Das ermöglicht eine kontinuierliche Überwachung, Fehlererkennung und präventive Wartung. Es ermöglicht die automatisierte Fernüberwachung und -steuerung von Maschinen, was die Effizienz verbessert und Ausfallzeiten reduziert.

2. Lagerbestandsverwaltung automatisieren

Mit Kameras und Sensoren können Lagerbestände automatisch überwacht und verfolgt werden. Dies ermöglicht eine präzise Bestandsverwaltung, eine automatische Nachbestellung bei Bedarf, sowie die Optimierung des Lagerlayouts und der Materialflüsse.

3. Supply Chain Management optimieren und überwachen

Die Transparenz und Effizienz in von Lieferketten werden mit IoT weiter verbessert. Sensoren können mit RFID den Standort von Produkten oder Komponenten verfolgen. Die Temperatur und Feuchtigkeit während des Transports werden mit Sensoren überwacht und liefern Echtzeitinformationen über den Lieferstatus und die Qualität. Dadurch können Schäden, Engpässe oder Verzögerungen frühzeitig erkannt und Maßnahmen ergriffen werden.

4. Qualitätskontrolle durch Überwachung und Steuerung

IoT-Sensoren werden in Fertigungsprozessen eingesetzt, um die Qualität zu überwachen und steuern. Durch die Echtzeitüberwachung können Abweichungen von der Spezifikation sofort erkannt werden.

5. Effizienz und Sicherheit verbessern

Das Internet der Dinge unterstützt bei der Sicherheit am Arbeitsplatz und steigert die Effizienz der Arbeitskräfte. Zum Beispiel können vernetzte Sensoren in Echtzeit Informationen über die Arbeitsbedingungen liefern, um potenzielle Gefahren zu erkennen und rechtzeitig Maßnahmen zu ergreifen. Wearables und vernetzte Geräte können die Zusammenarbeit und Kommunikation zwischen den Mitarbeitern verbessern.

Vorteile des IoT

Die Vorteile des IoT liegen in der Möglichkeit, umfassende Daten aus der physischen Welt zu sammeln und zu nutzen, um fundierte Entscheidungen zu treffen, Effizienz zu steigern, Kosten zu senken, neue Dienstleistungen zu entwickeln und das tägliche Leben zu verbessern.

Nachteile von IoT

Nachteile durch IoT sind noch zu lösende Probleme, wie die Sicherheit und den Datenschutz der gesammelten Daten. Auch die Wartungs- und Updatemöglichkeit bei kostengünstigen IoT Geräten, sowie bei der Interoperabilität und Skalierbarkeit von IoT-Systemen sind teilweise ungelöst.

Fazit

Die Einsatzmöglichkeiten des Internet der Dinge in smarten Fabriken zeigen, wie die Flexibilität und Anpassungsfähigkeit in der Fertigung verbessern kann. Durch die Integration von IoT in die industrielle Automatisierung können Unternehmen Wettbewerbsvorteile erzielen und auf die sich ändernden Anforderungen des Marktes reagieren. Es gibt aber wachsende ungelöste Probleme, auf die bereits George Orwell in seinem Buch 1984  und Aldous Huxley in Schöne Neue Welt und viele weitere Autoren hingewiesen haben.

 

siehe auch Smart City NEOM

 

Der Blackbox Test und der Whitebox Test

Der Blackbox-Test und der Whitebox-Test dienen dazu, die Qualität und Zuverlässigkeit von Software- und Systemlösungen sicherzustellen. Die Tests decken verschiedene Aspekte wie Funktionalität, Benutzerfreundlichkeit, Zuverlässigkeit und Sicherheit ab. Sie werden von Anwendungsentwicklern, Systemintegratoren und weiteren Berufen in der IT Sparte eingesetzt.

Der Blackbox Test

Der Blackbox-Test wird auch manchmal als Black-Box-Test beschrieben und ist ein Testverfahren, bei dem die interne Struktur oder das Design des zu testenden Systems nicht bekannt ist oder nicht berücksichtigt wird. Der Tester betrachtet das System als eine „Blackbox“, bei der er nur die Eingaben (Input) und die Ausgaben (Output) kennt. Der Fokus liegt auf der Überprüfung der funktionalen Anforderungen des Systems, wie z. B. ob es die erwarteten Ergebnisse liefert und ob es korrekt mit verschiedenen Eingabeparametern umgeht. Der Tester kann verschiedene Techniken wie Äquivalenzklassenbildung, Grenzwertanalyse, Zustandsübergangstests und zufällige Tests verwenden, um die Wirksamkeit des Systems zu überprüfen. Der Blackbox-Test ermöglicht es, das System aus Sicht des Endbenutzers zu bewerten und kann unabhängig von der internen Implementierung des Systems durchgeführt werden.

Vorteile des Blackbox-Tests

  • Der Blackbox-Test stellt sicher, dass das System den Anforderungen und Erwartungen der Benutzer entspricht.
  • Der Blackbox-Test kann unabhängig von der internen Implementierung durchgeführt werden.
  • Durch den Blackbox-Test können Muster von Fehlern und unerwartetem Verhalten erkannt werden.

Nachteile des Blackbox-Tests

  • Der Blackbox-Test kann bestimmte interne Codepfade oder -bereiche nicht ausreichend testen.
  • Die Ursache von Fehlern kann aufgrund fehlenden Zugangs zur internen Implementierung schwierig zu identifizieren sein.
  • Der Blackbox-Test bezieht sich nicht auf die interne Effizienz oder Optimierung des Codes.

Der Whitebox Test

Der Whitebox-Test wird manchmal als White-Box-Test beschrieben und ist ein Testverfahren, bei dem der Tester Einblick in die interne Struktur, sowie in das Design des zu testenden Systems hat. Der Tester analysiert den Quellcode, die Algorithmen, die Datenstrukturen und andere technische Aspekte des Systems, um Tests zu erstellen, die auf diesen Informationen basieren. Der Whitebox-Test konzentriert sich sowohl auf die Überprüfung der funktionalen Anforderungen als auch auf die strukturelle Abdeckung des Codes. Es werden Techniken wie Pfadabdeckung, Anweisungsabdeckung, Zweigabdeckung und Bedingungsabdeckung verwendet, um sicherzustellen, dass alle möglichen Pfade und Szenarien im Code getestet werden. Der Whitebox-Test wird oft von Entwicklern durchgeführt, um sicherzustellen, dass der Code richtig implementiert ist und potenzielle Fehler und Schwachstellen identifiziert werden.

Vorteile des Whitebox-Tests

  • Der Whitebox-Test ermöglicht eine detaillierte Überprüfung des Codes und identifiziert potenzielle Fehler auf algorithmischer oder struktureller Ebene.
  • Durch den direkten Zugriff auf den Quellcode kann der Whitebox-Test eine umfassende Abdeckung der Code-Pfade und Szenarien erreichen.
  • Der Whitebox-Test ermöglicht es, ineffiziente Codebereiche zu erkennen und zu optimieren, um die Gesamtleistung des Systems zu verbessern.

Nachteile des Whitebox-Tests

  • Der Whitebox-Test erfordert Kenntnisse über die interne Implementierung, was zu Einschränkungen führen kann, wenn der Quellcode nicht verfügbar oder komplex ist.
  • Der Whitebox-Test fokussiert sich stark auf die interne Logik und kann die Perspektive eines Endbenutzers oder externe Schnittstellen möglicherweise nicht vollständig berücksichtigen.
  • Der Whitebox-Test erfordert tiefgreifende Kenntnisse der internen Struktur und erfordert mehr Zeit und Ressourcen im Vergleich zum Blackbox-Test.

Fazit

Der Blackbox-Test ermöglicht eine unabhängige Bewertung der funktionalen Anforderungen aus Benutzersicht, während der Whitebox-Test eine detaillierte Überprüfung der internen Implementierung und eine umfassendere Testabdeckung bietet. Beide Testarten sind wichtige Bestandteile der Qualitätssicherung.

 

 

Continuous Integration und Deployment – CI/CD

Softwareentwicklung geschieht vielfältig und CI/CD spielt bei Anwendungsentwicklern eine wichtige Rolle. Continuous Integration und Deployment (CI/CD) ist ein Prozess in der Softwareentwicklung. So werden Änderungen an einer Anwendung schnell und effizient in die Produktion zu überführt. Dies geschieht durch eine kontinuierliche Integration von Code-Änderungen und Tests, sowie eine automatisierte Bereitstellung von Software-Updates.

In der traditionellen Softwareentwicklung erfolgt die Integration von Code-Änderungen oft erst am Ende des Entwicklungsprozesses. Dies führt oft zu Problemen bei der Integration, da die einzelnen Komponenten der Anwendung nicht richtig miteinander funktionieren. Durch den Einsatz von CI/CD werden Code-Änderungen hingegen kontinuierlich und automatisiert in die Anwendung integriert und getestet.

Continuous Integration (CI)

Continuous Integration (CI) bezieht sich auf den Prozess der kontinuierlichen Integration von Code-Änderungen in ein zentrales Repository. Dabei werden alle Änderungen automatisch gebaut und getestet. So wird sichergestellt, dass sich die Änderungen problemlos in die bestehende Codebasis integrieren lassen. Dadurch können Probleme frühzeitig erkannt und behoben werden.

Continuous Deployment (CD)

Continuous Deployment (CD) geht noch einen Schritt weiter als CI. Es benutzt  Prozesse zur automatisierten Bereitstellung von Anwendungs-Updates. Dabei wird der Code automatisch auf die Produktionsumgebung übertragen und in Betrieb genommen, nachdem er erfolgreich getestet wurde. Dies ermöglicht eine schnelle und effiziente Bereitstellung von Software-Updates. Ausfallzeiten werden minimiert.

Durch den Einsatz von CI/CD können Entwickler die Qualität ihrer Anwendungen verbessern, die Entwicklungszeit verkürzen und die Auslieferung von Software-Updates beschleunigen. Dabei ist es wichtig, dass die Entwickler regelmäßig Änderungen am Code vornehmen und diese Änderungen automatisiert testen. Durch die kontinuierliche Integration und Bereitstellung von Code-Änderungen wird sichergestellt, dass die Anwendung zu jeder Zeit stabil und funktionsfähig bleibt.

Fazit

Zusammenfassend ist Continuous Integration und Deployment ein wichtiger Bestandteil der modernen Softwareentwicklung. Es ermöglicht eine schnelle, sowie effiziente Bereitstellung von Software-Updates. Es hilft Unternehmen, ihre Anwendungen schneller und mit höherer Qualität auf den Markt zu bringen.

 

Die Six Sigma Methodik im Überblick

Die Six Sigma Methodik wurde 1979 von Motorola entwickelt und dient der Qualitätsverbesserung bei vorhandenen Produkten oder Dienstleistungen. Dabei werden die Methoden DMAIC, DFACE und DMADV eingesetzt. Dazu wird das statistische Qualitätsmanagement eingesetzt. Dazu haben Genichi Taguchi und William Edwards Deming große Beiträge geleistet.

So hat  der japanische Ingenieur Gen’ichi Taguchi die nach Ihm benannte Taguchi-Methode entwickelt, bei der Prozesse, Produkte und Systeme so robust wie möglich gestaltet werden. Es ist heute eine der Methoden, die bei Six Sigma angewandt werden.

Zur gleichen Zeit entwickelte der amerikanische Ingenieur William Edwards Deming die prozessorientierte Sicht und den Einsatz von Statistik im Qualitätsmanagement. Seine Erkenntnisse sind auch heute in Qualitätsnormen und in der Lehre im Einsatz. So nutzen viele Menschen die PDCA Methode.

DMAIC

DMAIC ist eine sich wiederholende Methode, die aus fünf Schritten besteht. Die fünf Schritte sind Define, Measure, Analyze, Improve und Control. Mit DMAIC werden Probleme in bestehenden Prozessen und Produkten identifiziert, analysiert und gelöst.

DFACE

Die DFACE Methode ist eine Erweiterung von DMAIC. Sie betrachtet zusätzlich die zum üblichen Vorgehen bestehenden Chancen und  Risiken des Prozesses (Failure Mode and Effects Analysis, FMEA), sowie identifiziert DFACE die Anforderungen der Stakeholder (Customer Expectations).

DMADV

DMADV ist eine weitere Methode, die aus fünf Schritten besteht. Hier gibt es die Schritte Define, Measure, Analyze, Design, Verify, um einen neuen Prozess mit großer Leistung und Zuverlässigkeit zu entwerfen und umzusetzen. Im Gegensatz zu DMAIC liegt der Fokus auf der Prozessneugestaltung.

Mindestanforderung an ein Qualitätsmanagement System

Qualitätsmanagement

Qualität ist die Erfüllung der Anforderungen des Kunden. Bei vielen qualitätsbewussten Unternehmen wird dazu als Standard die Norm EN ISO 9000ff eingesetzt.

Mindestanforderungen an ein Qualitätsmanagement System

  • Kundenorientierung
  • Einbeziehung der beteiligten Personen
  • Prozessorientierter Ansatz
  • Kontinuierlicher Verbesserungsprozess (KVP)
  • Am System orientiertes Management Konzept
  • Lieferantenbeziehung mit Win-Win Nutzen
  • Liegt in der Verantwortung der Führung

Unternehmen, die aktiv Qualitätsmanagement betreiben, haben ein besseres Image und gesicherte Prozesse, weil regelmäßige Audits ein hohes Qualitätsniveau sicherstellen. Dadurch erhöhen sich die Chancen bei der Gewinnung von Aufträgen.

 

Das Pareto Diagramm ein Werkzeug des Qualitätsmanagement

Beim Qualitätsmanagement ist es wichtig, dass man sich auf die Hauptprobleme konzentriert. Eine gute Unterstützung liefert das Pareto Diagramm, dass das Pareto Prinzip nutzt. Dazu wird die relative Häufigkeit von Problemen in einem Balkendiagramm dargestellt.

Prozess zur Nutzung des Pareto Diagramms

  1. Festlegen, welches Problem analysiert werden soll
  2. Brainstorming anhand von Daten über Probleme oder Ursachen
  3. Sinnvolle Messgrößen ermitteln
  4. Den Untersuchungszeitraum festlegen
  5. Daten für die Untersuchung sammeln oder vorhandene Daten ermitteln
  6. Vergleich der relativen Häufigkeit jeder Problem Kategorie
  7. Kategorien in der horizontalen Achse eintragen
  8. Die kumulierten Prozentwerte der Problemkategorien eintragen
  9. Zum Abschluss die Ergebnisse analysieren und interpretieren

Beispiel einer Auswertung mit dem Pareto Diagramm

blankDas Ergebnis zeigt, dass mit der Beseitigung der zwei größten Fehler eine Fehlerreduktion von fast 80% erreicht wird. Durch die Beseitigung der Fehler „Kabelbruch“ und „Messfehler“ lässt sich die Qualität in kurzer Zeit wesentlich steigern.

Fazit:

Das Paretoprinzip unterstützt eine schnelle und effektive Steigerung der Qualität eines Produkts oder einer Dienstleistung. Es ist ein nützliches Werkzeug aus der Werkzeugkiste von Six Sigma.

Qualitätsanforderungen an Software

Standardsoftware wird nach unternehmensinternen Qualitätsrichtlinien programmiert und verkauft.
Wie ist das aber bei individuell erstellter Software?

Es gibt allgemeine Qualitätsrichtlinien, die aber vor der Auftragserteilung festgelegt sein sollten. Denn es gilt:

„Qualität ist die Erfüllung der Kundenanforderungen.“

8 Kriterien für Qualität bei Software Entwicklung

Es gibt wichtige Eigenschaften, die bei der Softwareentwicklung eine tragende Rolle spielen. Denn schließlich soll die Software während der Nutzungsdauer problemlos und kostengünstig eingesetzt werden können.

Benutzerfreundliche Bedienung

Ein Programm oder eine App sollen einfach zu bedienen sein. der Anwender soll möglichst ohne Hilfe zum Erfolg kommen.

Unempfindlich gegen Fehler

Eingabefehler sollen abgefangen werden, Fehlbedienung nicht möglich sein.

Integrität und Sicherheit

Die Daten und das System sollen gegen unberechtigte Zugriffe und Manipulation geschützt sein.

Korrekte Funktion

Bei der Eingabe, Verarbeitung und Ausgabe dürfen keine Fehler auftreten. Bei gleichen Eingeben muss stets das gleiche Ergebnis erscheinen.

Portable Verwendung

Die Software soll auf anderen Systemen nutzbar sein.

Überprüfbarkeit

Bei der Abnahme der Software soll der Prüfungsaufwand gering sein.

Kompatibel zu anderen Anwendungen

Die Software soll einfach mit weiterer Software verbunden werden können.

Erweiterbare und wiederverwendbare Eigenschaften

Die Software soll leicht mit neuer Funktionalität ausgestattet und vorhandene Funktionen erweitert werden können.

Fazit:

Software Qualität ist wichtig und entscheidet mit, wie die Nutzung im beruflichen Alltag stattfindet. Gerade bei den Projekten Industrie 4.0 und der zunehmenden Digitalisierung in allen beruflichen Bereichen ist fehlerfreie, hochwertige Software eine Basisvoraussetzung.

Unternehmensprozesse im Zeitalter von Industrie 4.0

Unternehmen sind ein Teil der Privatwirtschaft und dem stetigen Wandel in der Natur unterworfen. Die Anpassung gelingt einigen Unternehmen sehr gut und anderen weniger gut. Im Zeitalter der elektronischen Datenverarbeitung haben sich Systeme entwickelt, die den Wandel zu Industrie 4.0 mit KI begünstigen. Die nachfolgende Auflistung zeigt im Überblick Einige von Unternehmen eingesetzte Datenverarbeitungssysteme.

Unternehmensweite Planung bei Industrie 4.0

Unternehmensweite Planung bei Industrie 4.0
Unternehmensweite Planung bei Industrie 4.0

Enterprise Ressource Planning (ERP) ist die unternehmensweite Planung von Ressourcen des gesamten Unternehmens. Dabei wird bei Industrie 4.0 immer mehr KI genutzt werden, um den Bearbeitern und Entscheidern zeitnah, umfassende Auswertungen und Lösungen anzubieten. Die Entscheidungen fällt jetzt noch der Mensch. Aber dies wird sich in der Zukunft ändern. Denn der Mensch wird die Koexistenz und Handlungsfähigkeit der KI als gleichberechtigter Partner akzeptieren müssen. Das verändert die Wirtschaftssysteme.

Je nach Branche sind die ERP Systeme unterschiedlich aufgebaut. einige Unternehmen leisten sich individuelle angepasste ERP Systeme. Andere nutzen Vanilla Lösungen. Eine Vanilla Lösung stellt die standardisierte, nicht angepasste Anwendung „out of the box“ dar. Diese hat den Vorteil, das Versions-Upgrades einfach und kostengünstig möglich sind. Dafür werden bei diesen Unternehmen in vielen Bereichen Standardprozesse genutzt.

Umfassende Kommunikation der IT-Systeme ist erforderlich

Über Schnittstellen erfolgt die Kommunikation der Subsysteme mit einer einheitlichen Sprache zum Datenaustausch. Meist wird dafür Extended Markup Language (XML) genutzt. Die in großen Mengen vorhandenen Daten werden in leistungsfähigen Datenbanken vorgehalten. Auch hier wird immer mehr KI eingesetzt und unterstützt die Prozesse. So werden sich in der multipolaren Welt diese Systeme unterscheiden und das entspricht der von der Natur gewünschten Vielfalt und ermöglicht die Zukunftsfähigkeit von Unternehmen, Mitarbeitern und der KI.

Die PDCA Methode von William Edwards Deming

Dr. William Edwards Deming, der Mann der die Welt veränderte und den kaum einer kennt. Dr. Deming war ein Guru des Qualitätsmanagements, der neue Wege aufzeigte und umsetzte. Seine Methoden machten Toyota zum langjährigen Weltmarktführer im Automobilbau. Die US Autoindustrie wurde in den 80er Jahren durch mangelhafte Qualität und „This is good enough“ fast ruiniert.

Eine von Dr. Demings  grundlegenden Methoden ist die PDCA Methode.

PDCA Methode
Die Nutzung gestaltet sich in vier Schritten. Diese werden beliebig oft wiederholt.

  1. Plan: Plane den Vorgang
  2. Do: Führe den Vorgang wie geplant aus
  3. Check: Prüfe das Ergebnis, z.B.  mit einem Soll-Ist Vergleich
  4. Act: Handle und gestalte den Vorgang mit den neuen Erkentnissen um

Sie werden feststellen, dass sich ihr Produkt oder ihre Dienstleistung stetig verbessern.

Qualität bei Software messen

Wer kennt das nicht? Es wurde die Entwicklung einer Software in Auftrag gegeben. Bei der Übergabe ist das Produkt nicht so, wie Sie Anforderung definierten. Da kann im Vorfeld einiges getan werden, damit die unerwünschten Ergebnisse ausbleiben.

Die Produktbeschreibung im Lastenheft

Der erste Schritt ist eine ausreichende Beschreibung des Produkts oder der Dienstleistung in einem Lastenheft. Dieses Lastenheft enthält auch eine Abgrenzung. In der steht, was nicht zum Umfang der Entwicklung gehört. Das Lastenheft wird bei der Angebotsanforderung an potentielle Auftragnehmer weitergereicht.

Die lieferbare Leistung im Pflichtenheft

Es ist die Basis für das Pflichtenheft. Dort beschreibt ein möglicher Auftraggnehmer den Rahmen seines Angebotes. Es steht dort geschrieben, was der potentielle Auftragnehmer umsetzen kann und was nicht. Es ist ein Teil der Basisinformationen zur Entscheidungsfindung. Denn mit dem Pflichtenheft erfolgt die Entscheidung, wer den Auftrag erhält. Zudem sind Lastenheft und Pflichtenheft ein wichtiger Bestandteil der abschliesenden Abnahme des Produkts oder der Dienstleistung.

Der Soll-Ist Vergleich zur Ermittlung der Qualität

Der ausgewählte Auftragnehmer entwickelt nun die Software oder Dienstleistung. Dabei ist zu beachten, dass es sogenannte verdeckte Arbeiten geben kann. Diese lassen sich nur innerhalb eines bestimmten Zeitraumes prüfen. Diese verdeckten Arbeiten sind im Vorfeld zu ermitteln und rechtzeitig gesondert zu kontrollieren.

Mit Hilfe des Lastenhefts, des Pflichtenhefts und der Dokumentation kann am Ende des Projekts die Abnahme durch den Auftragnehmer erfolgen. Da in der genannten Dokumentation alle erforderlichen Daten vorhanden sind, ist eine sachgerechte Prüfung und Abnahme möglich.

Ein wichtiger Punkt ist unbedingt zu beachten

Jede Änderung oder Erweiterung ist ein gesonderter Auftrag und hat im aktuellen Projekt nichts zu suchen. Änderungen und Erweiterungen werden erst nachfolgend oder nach Vereinbarung bearbeitet.

Der Einsatz von KPI

Mit Key Performance Idikatoren (KPI) können standardisierte Kennzahlen zur wiederholten und dabei vereinfachten Prüfung erstellt werden. Dazu werden aussagekräftige Parameter ermittelt, die über den Zustand des Produkts, der Dienstleistung oder deren Umfeld etwas aussagen.

Fazit:

Software Qualität hängt von vielen Parametern ab und ist zu prüfen. Wer nicht das notwendige Know-How hat, sollte einen Spezialisten hinzuziehen. Denn fehlerhafte Produkte können zu hohen Folgekosten führen.

William Edwards Deming: Grundlegende Fehler, die Verbesserung in Unternehmen behindern

William Edwards Deming, ein weltbekannter Pionier des Qualitätsmanagement entwickelte die prozessorientierte Sicht bei Management Abläufen in Unternehmen. Daraus entstanden später verschiedene Normen und Lehren zur Qualität. Deming analysierte im Rahmen seiner Qualitätsmanagement Lehre unter anderem, welche Fehler sich negativ auf Unternehmen auswirken.

  • Wenn ein Unternehmen hauptsächlich auf kurzfristigen Gewinn aus ist, dann kann keine strategische Planung vorgenommen werden. Mittelfristig werden solche Unternehmen durch Ihre planloses Vorgehen anderen unterliegen. Denn ohne Plan gibt es ständig wechselnde Ziele.
  • Das Gleiche gilt, wenn der Zweck einer Organisation oder Abteilung ständig verändert wird. Mit “kreativer Buchhaltung” können Unternehmen durch Entlassungen, Fusionen, Devisenbewertungen und anderen Tätigkeiten ständig positive Zahlen erzeugen, bis ein Unternehmen zusammenbricht.
  • Durch Leistungsbewertung von Mitarbeitern wurden noch nie langfristig Verbesserungen erzielt. Vielmehr gibt es Mitarbeiter, die das System zu Ihren Gunsten manipulieren können. Besser ist es, die Mitarbeiter individuell auszubilden und zu fördern. Kein erstelltes Profil vermag den Menschen, seine Arbeitsleistung und -qualität richtig darzustellen.
  • Hier ist das “Weisse Ritter Syndrom” gemeint. Ein oder mehrere Manager treten in einem Unternehmen als Retter auf. Sie veranlassen viele Veränderungen und zeigen auf kurzfristig erreichte, positive Ergebnisse. Sie verlassen das Unternehmen mit einer persönlichen Gewinnmitnahme, bevor langfristig negative Auswirkungen Ihrer Tätigkeit zu sehen sind.
  • Wichtiger als die bekannten oder sichtbaren Zahlen (manchmal aus KPI genannt) sind die unsichtbaren Zahlen die Unternehmen nicht zur Verfügung stehen. Zum Beispiel die Softskills der Mitarbeiter, der entstandene Nutzen oder Schaden für Kunden. Vorhandene Zahlen bilden immer nur die Vergangenheit ab.
  • Gesunde und motivierte Mitarbeiter sorgen für geringe Kosten. Daher sollte die Erhaltung von Gesundheit und Motivation ein ständiges strategisches Ziel eines Unternehmens sein.
  • Es ist eine Belastung für die zukünftige Entwicklung, wenn Unternehmen durch unzureichende Recherche, mangelhafte Qualität oder durch Absichten die Verträge zu brechen. Dann sind nachfolgend hohe Kosten zu bezahlen. Daher sollten Unternehmen Geschäftsbeziehungen bevorzugen, die auf gegenseitigen Vertrauen beruhen.

Fazit:

Die Demingschen Regeln für ein erfolgreiches Management sind von der Unternehmenskultur abhängig. Was lebt, unterliegt der Veränderung. Bei richtiger Veränderung kann mittel- oder langfristig mit einer positiven Entwicklung gerechnet werden.

Demings Erkenntnisse als Statistiker und Qualitätsexperte haben vor allem Japans Top Manager seit den 1960-er Jahren geprägt und zeigen sich weltweit in vielen Produkten der heutigen Zeit. Um Demings Ideen nicht zu vergessen, wurde in der Schweiz das Deming Institut gegründet.

Wie kann der Qualitätsstandard Hi-Fi heute geprüft werden?

In den 1960 Jahren Hi-Fi durch die DIN-Norm 45500 festgelegt. Die Norm für High Fidelity wurde 1996 durch die neue EN 61305 ersetzt hat keine qualitätsbestimmende Rolle mehr. Mit der EN 61305 werden nur noch die Messverfahren und Angabe der Leistungswerte festgelegt. Viele Hersteller schreiben heute keine oder wenige Leistungswerte auf die Verpackung ihrer Produkte. Bei einer Stichprobe mit Headsets hatten ein Drittel der Produkte keinerlei technische Angaben außer der Länge des Anschlusskabels.

Aber erfüllen Produkte bei den Angaben die bewährten Normen nach DIN 45500 oder DIN 45511 (für Studiogeräte)?
Denn heute wird erwartet, dass die Geräte diese Normen weit übertreffen. Den größten Schwachpunkt in der Kette zur Reproduktion von Musik bilden schon immer die Lautsprecher und Mikrofone. Daher fasse ich hier wichtige Kennwerte zusammen.

Klirrfaktor

Der Klirrfaktor k gibt den Anteil am Gesamtsignal an, in welchem Maße die harmonischen Oberschwingungen, eine sinusförmige Grundschwingung überlagern. Die DIN Norm 45500 schreibt einen Klirrfaktor von maximal 1% fest.

Frequenzgang

Hier bietet die alte Norm Mindestanforderungen. Die Toleranz im Lautstärke-Verhalten über den gesamten Frequenzbereich wird bei den heutigen Produkten nicht angegeben. So kann ein großer Frequenzgang aufgedruckt werden und die Kopfhörer oder Lautsprecher sind trotzdem minderwertig.

Der Frequenzgang von Geräten nach DIN 45500 hat in einem Frequenzgang von 250 Hz bis 6300 Hz eine Toleranz von 5 dB. Die strengere DIN-Norm 45511 für Studiogeräte legt für einen Frequenzbereich von 80 Hz bis 8000 Hz eine Toleranz von 3 dB fest.

Mikrofone

Gute Mikrofone bieten einen Frequenzgang von 50 Hz bis 12,5 kHz mit einer Toleranz von 3 dB.

Lautsprecher

Die Minimalanforderung ist ein Frequenzgang von 250 Hz bis 8000 Hz bei einer Toleranz von maximal 3 dB und der Klirrfaktor soll kleiner 1% sein.

Kopfhörer

Das menschliche Ohr hört Töne von ca. 16 Hz bis 20 kHz. Mit zunehmenden Alter nimmt das Hörvermögen im hohen Frequenzbereich ab. Kopfhörer klingen meist lauter als Lautsprecher, da sie direkt am Ohr angebracht sind.

Es gibt geschlossene Systeme die den Umgebungslärm dämpfen. Bei offenen Systemen dringt der Schall aus der Umwelt ungehindert zu Ohr vor.

Weitere Literatur:

https://de.wikipedia.org/wiki/High_Fidelity

http://www.hifimuseum.de/

Mebibyte oder Megabyte – Was ist der Unterschied?

Die Angaben der Speichergröße ist manchmal verwirrend. Denn früher war ein ein Kilobyte mit 1024Byte spezifiziert. Das ist nach der heute gültigen Benennung ein Kibibyte.

Binärpräfixe nach IEC

Der Binärpräfixe sind Vielfache von Zweierpotenzen mit einer Schrittweite von 10 beim Exponenten. Sie werden für die Größenangaben von Datenmengen in der Informatik verwendet. Dazu gehören die Bezeichnungen Kibibyte, Mebibyte, Gibibyte. Die Umstellung auf Binärpräfixe wurde 1996 vom IEC vorgeschlagen und die die Hersteller folgten der Empfehlung in den nachfolgenden 10 Jahren.

Dezimalpräfixe nach SI

Parallel dazu gibt es  die Dezimalpräfixe nach den Normen der SI. Hier ist die Basis 10 und der Exponent wird mit der Schrittweite 3 verändert.

Potenzwert = BasisExponent

Dezimalpräfixe gemäß SI Unter-schied
gerundet
Binärpräfixe gemäß IEC
Name Sym Anzahl Bytes Name Sym Anzahl Bytes
Kilobyte kB 1 000 = 103 2,4 % Kibibyte KiB 1 024 = 210 
Megabyte MB 1 000 000 = 106 4,9 % Mebibyte MiB 1 048 576 = 220 
Gigabyte GB 1 000 000 000 109 7,4 % Gibibyte GiB 1 073 741 824= 230 

Durch die unterschiedlichen Zahlensysteme ergeben sich verschiedene Speichergrößen. Je größer das Speichervolumen eines Datenträgers, um so größer ist der Unterschied der wirklichen Datenmenge. Dieser Unterschied der Datenmenge wird von den Herstellern beim Verkauf von Datenträgern genutzt. So finden Sie inzwischen auf den verkauften Datenträger meist die Angabe nach dem Dezimalpräfix. Die Anbieter können so Kosten sparen.