Fehlersuche in Java mit dem Eclipse Debugger

Um ein perfektes Produkt mit der Programmiersprache Java zu erstellen braucht es eine gründliche Qualitätskontrolle und methodisches Vorgehen.

Der Entwickler unterscheidet, ob ein logischer Fehler oder ein Schreibfehler vorliegt. Logische Fehler können mit Hilfe  einer genauen Beschreibung des Produkts oder Vorgangs durch Soll-Ist Vergleiche erkannt und beseitigt werden. Manchmal wäre es praktisch, wenn ein Programm zum Test Schritt für Schritt ausgeführt werden könnte und dabei die Werte der Variablen, Übergabeparameter und Attribute auslesen kann. Hier kann die Java Entwicklungsumgebung Eclipse durch den integrierten Debugger unterstützen. Durch setzen eines Breakpoints, einer temporären Haltestelle, können die gewünschten Werte geprüft werden. Das setzen des Breakpoints erzeugt einen kleinen blauen Punkt auf der linken Seite. Durch erneutes Klicken mit der Maus auf diesen Punkt wird der Breakpoint wieder entfernt.

Breakpoint im Eclipse Debugger

Mit der Taste F11 wird der Debugger in Eclipse gestartet.  Bei Punkt 1 wird die Breakpoint Markierung und der Java Quellcode angezeigt.  Bei dem rechten Fenster werden bei Punkt 2 die Breakpoints und nach dem klicken auf einen Breakpoint werden unten weitere Informationen angezeigt. Auf der linken Seite bei Punkt 3 die Aufrufhierarchie angezeigt.

Java Debugger bei Eclipse

Für die weitere Bearbeitung stehen weitere Funktionen zur Verfügung

  • F5 Step into
    Es können Methoden aufgerufen und in der ersten Zeile angehalten werden. Ansonsten wird der Debugger bis zum nächsten Methodenaufruf weiterlaufen.
  • F7 Step Return
    Mit Step Return kann der Sprung in eine Methode durch Step Into zurückgenommen werden und an der vorherigen Haltestelle wieder weiter analysiert werden.
  • F6 Step Over
    Step Over kann einen zu analysierenden Bereich überspringen.
  • F8 Resume
    Das Programm wird bis zum nächsten Breakpoint ausgeführt.
  • CTRL+R Run To Line
    Die Ausführung des Programms wird bis zu einer bestimmten Zeile durchgeführt.
  • CTRL+F2 Terminate
    Die Ausführung des Programms wird beendet.

Mit dem Debugger lassen sich während des Probelaufs eines Programms die Variablen, Schleifen, Abfragen, Methodenaufrufe beobachten und so können Fehler leichter gefunden werden.

 

Die PDCA Methode von William Edwards Deming

Dr. William Edwards Deming, der Mann der die Welt veränderte und den kaum einer kennt. Dr. Deming war ein Guru des Qualitätsmanagements, der neue Wege aufzeigte und umsetzte. Seine Methoden machten Toyota zum langjährigen Weltmarktführer im Automobilbau. Die US Autoindustrie wurde in den 80er Jahren durch mangelhafte Qualität und „This is good enough“ fast ruiniert.

Eine von Dr. Demings  grundlegenden Methoden ist die PDCA Methode.

PDCA Methode
Die Nutzung gestaltet sich in vier Schritten. Diese werden beliebig oft wiederholt.

  1. Plan: Plane den Vorgang
  2. Do: Führe den Vorgang wie geplant aus
  3. Check: Prüfe das Ergebnis, z.B.  mit einem Soll-Ist Vergleich
  4. Act: Handle und gestalte den Vorgang mit den neuen Erkentnissen um

Sie werden feststellen, dass sich ihr Produkt oder ihre Dienstleistung stetig verbessern.

Wie Sie die Cloud sicher nutzen

Daten und Informationen auf Computern überall und jederzeit zur Verfügung zu haben, ist kostengünstig und produktiv. Doch wenn die Daten gestohlen oder vernichtet werden, kann das ein Unternehmen schwer schädigen.

Risiken bei der Nutzung der Cloud

  • Hacken des Netzwerks​
  • Richtige Konfiguration der Cloud​
  • Falsch gesetzte Zugriffsberechtigung​
  • Einbruch durch eine andere Instanz einer Virtuellen Maschine​
  • Abhängigkeit von der Cloud eines Betreibers​
  • Pishing durch weitere Nutzer​
  • Hack durch Geheimdienste oder unbekannte Geheimgesetze​
  • Ausfall durch Terrorismus, Krieg oder mangelnde Infrastruktur​
  • Ausfall der Netzverbindung

Lösungen zur Risiko Minimierung

  • Sorgfältige Konfiguration mit abschließenden Tests durchführen​
  • Sensible Daten zur Sicherheit verschlüsseln​
  • Mitarbeiter weiterbilden und schulen​
  • Daten redundant an verschiedenen Plätzen ablegen und ggf. synchronisieren​
  • Daten nur mit größtmöglicher Verschlüsselung transportieren​
  • Mehrere Transportkanäle nutzen

Durch sorgsamen Umgang und die richtige Vorgehensweise kann die Cloud produktiven Gewinn bringen. Wenn die Daten in Europa liegen, gilt zudem der europäische Datenschutz. Das ist besser, als die Daten ungeschützt in den USA zu lagern.

Industrie 4.0 und der Einsatz von OPC UA

Industrie 4.0 setzt den Einsatz von digitaler Kommunikations – und Steuertechnik voraus. Denn Geräte der Industrie 4.0 sind mobil und ständig miteinander vernetzt. Das braucht den Einsatz verschiedener Kommunikationsprotokolle wie zum Beispiel OPC UA.

Was ist OPC UA?

  • Open Platform Communications Unified Architecture und besteht aus einer Reihe von Protokollen​
  • Es standardisiert die Maschine zu Maschine (M2M) Kommunikation
  • Es stellt serviceorientierte Architekturen (SOA) zur Verfügung​
  • Durch geeignete Semantik bei der Kommunikation wird die Anzahl der Schnittstellen gering gehalten​
  • Die Bereitstellung einfacher Schnittstellen​ sorgt für umfangreiche Standdardisierung
  • Einheitliche Nachrichtenformate vereinfachen den Austausch von Daten und Informationen
  • Es gibt flexible Erweiterungsmöglichkeiten​
  • Eine Implementierung hoher Sicherheitsstandards mit verschiedenen Sicherheitslevel ist verfügbar
blank
  • Redundanz sichert Datenverluste ab​
  • Heartbeat zur Verbindungsüberwachung in beide Richtungen, d. h. sowohl Server als auch Client bemerken Unterbrechungen.​
  • Pufferung von Daten und Quittierung von übertragenen Daten. Verbindungsunterbrechungen führen nicht zu Datenverlust. Verlorene Daten können erneut angefordert werden.

Fazit:

Industrie 4.0 ist am Aufbau und wird das Arbeits- und Sozialgefüge massiv verändern.

Datenbanken im Zeitalter der „Industrie 4.0“

Seit der Entwicklung von Computern spielen Datenbanken eine wichtige Rolle bei der Datenverarbeitung. Die Datenmenge ist im Zeitalter der Industrie 4.0 um ein vielfaches mehr geworden. Bei der Erfassung und Verarbeitung der Daten gibt es immer leistungsfähigere Geräte, wie Scanner, Kameras, Sensoren, Roboter oder Werkzeugmaschinen.

Mit der wachsenden Anzahl an vernetzten, digitalen Geräten wird die verarbeitete Datenmenge viel größer werden. Zudem soll zwischen den beteiligten Maschinen, Robotern und Menschen ein Datenaustausch in Echtzeit stattfinden. Die Daten müssen gespeichert, archiviert und innerhalb kurzer Zeit an beliebigen Orten wieder abrufbar sein. Dabei sind die Berechtigungen für die Daten und der Schutz der Daten einzuhalten.

So gibt es für die Ingenieure für die KI und die Produktionstechnik der Industrie 4.0 vielfältige Anforderungen zu erfüllen.

Dazu sind neue Speichermedien und Techniken für den Transport der Daten, in für heutige Maßstäbe kaum vorstellbaren Größen, zu entwickeln. Zudem wird durch den Einsatz von Quantencomputern die benötigte Rechenleistung zur Verfügung gestellt, um die KI für Industrie 4.0 und für Solarnet umfassend einsetzen zu können. Denn die Menschheit ist dann auch auf dem Mond beheimatet und auf dem Weg zur Besiedelung des Mars. Mit der Industrie 4.0 wird ein neues System etabliert, dass durch die KI den neoliberalen Kapitalismus ablöst.

Allerdings lassen sich die grundlegenden Elemente der Datenverabeitung weiterhin nutzen. Der Sprachumfang von SQL wird dem Full Level Stand entsprechen und weitere nützliche Funktionen zur Verfügung stellen. Zudem werden die mehrdimensionale Speicherung von Daten neue Wege der Verarbeitung bringen.

Anforderungen an Industrie 4.0

    • Die aktuellen Protokolle Open Platform Communications Unified Architecture (OPC UA) und Time Sensitive Networking (TSN) sind für Industrie 4.0 nur eingeschränkt nutzbar. Es fehlt teilweise die Echtzeit Nutzung bei der Übermittlung und Verarbeitung von Daten durch passende Schnittstellen oder Feldbusse​
    • Roboter stehen nicht mehr an einem Platz, sondern bewegen sich im Rahmen der Aufgaben in verschiedenen räumlichen Bereichen ​
    • Der Austausch von Information zwischen den Maschinen ist mit kurzer Antwortzeit notwendig. Das vermeidet Kollisionen und optimiert Prozesse​
    • Neue Technologien, wie verschränkte Kommunikation, sind bei großen Entfernungen notwendig
    • Eine Zuordnung der Informationen erfolgt durch Zuordnung von Kontext und der Ausweitung bei der Verarbeitung von Metadaten​
    • Die Weitergabe von Daten erfolgt kontextbezogen​
    • Der schnelle Eingriff in maschinenorientierte Abläufe durch den Menschen muss zu jeder Zeit möglich sein​
    • Auch Echtzeit Daten sind vollständig zu speichern, zu archivieren und innerhalb kürzester Zeit an jedem Ort zur Verfügung zu stellen
    • Der Datenschutz und und die Datensicherheit inklusive Berechtigungen müssen bei allen Daten angewendet werden
    • Die 3 Roboter Gesetze von Isaac Asimov sind einzuhalten​
    • Durch selbst optimierende Programme der KI werden bisher bestehende Fehlerquoten mehr und mehr eliminiert
    • Selbst reproduzierende Industrie erleichtert in ferner Zukunft die Industrialisierung von Planeten, Asteroiden und Monden

    • Die Menschen werden in Symbiose mit Maschinen leben

 

Daten – Information – Wissen im Kontext der Informatik

Der Begriff Information ist in der römischen Antike zum Beispiel durch Cicero als Vorstellung der Götter “informatio dei” genutzt worden. Augustinus hat mit “informatio sensus” den Prozess der sinnlichen Wahrnehmung auch als Unterweisung und Belehrung abgeleitet. Im 15. und 16. Jahrhundert wurde “informare” für die Tätigkeit der Benachrichtigung genutzt.

Der Mathematiker Claude E. Shannon definierte 1948 in seinem Aufsatz ” A Mathematical Theory of Communication” den Begriff Information im Kontext der Nachrichtentechnik. Daraus entstanden Wissenschaftsbereiche wie Informationswissenschaft und Informatik. Aber auch die Disziplinen Soziologie, Medientheorie und Philosophie wurden dadurch beeinflusst.(1)

Betrachten wir, wie Daten zu Information und Wissen werden

Daten sind in der Informatik Zeichen, die meist maschinenbearbeitbar sind. Stehen diese Zeichen im Kontext einer Bedeutung, dann werden aus strukturierten Daten Informationen.

Aus Informationen wird Wissen, wenn Menschen durch Beobachtung oder Erfahrung auf Zusammenhänge schließen. Nach der Philosophie Kants wird dies mit durch den Verstand kontrollierte Vernunft erreicht.

Beispiel

Daten 08937432
Information (durch Kontext “Telefonnummer”) 08937432
Wissen (durch Erfahrung oder Beobachtung: München hat die Vorwahl “089”) 08937432

 

In diesem Zusammenhang gibt es eine asiatische Sichtweise, die ein berühmter asiatischer Philosoph schrieb(2)

Die Nichtwissenheit wissen
ist das Höchste.
Nicht wissen, was Wissen ist,
ist ein Leiden.
Nur wenn man unter diesem Leiden leidet,
wird man frei von Leiden.
Daß der Berufene nicht leidet,
kommt daher, daß er an diesem Leiden leidet;
darum leidet er nicht.

 

Quelle: (1) Alexander Roesler/Bernd Stiegler “Grundbegriffe der Medientheorie”; (2) Laotse

Das V-Modell bei Internet Applikationen nutzen

Vorgehensweisen für Software- und Webseiten Entwicklung gibt es viele. Heute lernen wir das V-Modell kennen, dass von mir auf Webdesign angepasst wurde. Das V-Modell beinhaltet Projektmanagement, Konfigurationsmanagement, Änderungsmanagement und Qualitätssicherung.

V-Modell

V-Modell im Webdesign

Es unterscheidet sich zu anderen Vorgehensweisen dadurch, dass hier hauptsächlich Aktivitäten und Ergebnisse definiert werden.

Vorgehensweise beim V-Modell

V-Modell – Vorgehensweise

Fazit:

Das V-Modell hat aus meiner Sicht eine strukturierte Vorgehensweise. Es ist nicht für jedes Projekt geeignet. Auf Grund verschiedener Kritikpunkte wurde das V-Modell insofern geändert, dass jetzt V-Model XT zusätzlich agile Software Entwicklungstechniken eingesetzt werden. Zudem wird der Auftraggeber (Kunde) mehr in eingebunden. Dies verbessert die Qualität der Produkte oder Dienstleistungen und erleichtert die Abnahme. Die Dokumentation während des gesamten Zyklus unterstützt die Entwicklung und die darauf folgende Qualitätssicherung. Der Kunden kann die Dokumentation bei Erweiterungen oder Ergänzungen nutzen. Bei der Qualitätssicherung kann unter anderen die PDCA Methode eingesetzt werden.

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Web Entwicklung mit Hilfe der Extreme Programming Methode

Agile Software Entwicklung wird von immer mehr Entwicklern eingesetzt. Zur agilen Software Entwicklung gibt es verschiedene Modelle. Wir betrachten heute Extreme Programming.  Dieses System wurde von Ron Jeffries, Kent Beck und Ward Cunningham im Jahr 1995 entwickelt und eingesetzt.Extreme Programming ist eine Verknüpfung von Kommunikation, Offenheit, strukturierten Vorgehen und Teamarbeit.

Vorgehensweise bei Extreme Programming

  1. Rahmenbedingungen des Entwicklungsprojekts definieren
  2. Analysen durchführen
    1. Nutzenanalyse
    2. Risikoanalyse
    3. Ressourcenanalyse
  3. Synthese bzw. Erstellen eines Prototyps
  4. Abstimmen bis alle Beteiligten den Prototyp akzeptiert haben
  5. Sprung zum nächsten Entwicklungsschritt oder Iteration
  6. Entwicklung und Integration des Produkts
  7. Testen des Produkts
  8. Lebensdauer /Nutzungsdauer bestimmen
  9. Freigabe
  10. weiter mit Punkt 1 bis das Endprodukt vollständig fertiggestellt ist.

Allerdings gibt es gerade im Bereich von Webentwicklung und Software eine ständige Weiterentwicklung. So ist  jedes Produkt nur ein temporäres Endprodukt.

Vorteile von Extreme Programming

  • Der Kunde ist in den Entwicklungsprozess mit einbezogen
  • Durch die Risikoabschätzung am Beginn erhöht sich die Effizienz und Schwierigkeiten können teilweise vermieden werden
  • Kooperatives Lernen und kollektive Wissenslandschaften entstehen
  • Die Zufriedenheit der Mitarbeiter erhöht sich
  • Betriebswirtschaftlich findet eine Absicherung durch das verteilte Wissen statt

Rollen im Exterme Programming

  • Kunde/Auftraggeber
    • Bestimmt den Rahmen des Auftrags
    • Entscheidet, was gemacht wird
  • Projektmanager
    • Führt das Team
    • Kümmert sich um Problemlösung
    • Prüft Soll- und Ist Zustände aller Art
    • Stößt mangelnde Kommunikation an
  • Entwickler
    • Entwickelt das Produkt
    • Zeigt auftauchende Probleme oder Schwierigkeiten auf
  • Benutzer
    • Nutzt das Produkt
    • Gibt seine Änderungs und Erweiterungswünsche an den Auftraggeber weiter

Fazit:

Exterme Programming ist eine interessante Entwicklungsmothode und hat viel Potential. Es setzt auf Offenheit bei der Kommunikation. Denn nur so werden Probleme schnell bekannt und können Lösungen gefunden werden. Mut und Respekt im Umgang bei der täglichen Arbeit sind Voraussetzung für ein erfolgreiches Extreme Programming Projekt.

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Das ARIS Konzept von August-Wilhelm Scheer

ARIS bedeutet Architektur integrierter Informationssysteme und wurde von August-Wilhelm Scheer, dem ehemaligen Direktor des Instituts für Wirtschaftsinformatik der Universität des Saarlandes, entwickelt. ARIS wird im Geschäftsprozess- und Informationsmanagement eingesetzt. Durch seine 5 Sichten Architektur werden komplexe Prozesse besser verständlich und lassen sich einfacher modellieren.

Die 5 Sichten von ARIS

ARIS-Modell

ARIS-Modell

Organisationssicht

Es werden alle Organisationseinheiten und Ihre Beziehungen dokumentiert. Meist geschieht dies mit Organigrammen.

Datensicht

Alle in dem Unternehmen relevanten Dokumente, Informationsobjekte, sowie deren Beziehungen zueinander, werden in der Datensicht dargestellt.  Dazu gehören zum Beispiel Daten von ERP und Entity-Relationship Diagramme.

Steuerungssicht

In dieser Sicht wird der zeitliche und logische Zusammenhang der betrieblichen Abläufe dargestellt. Dies beinhaltet unter anderem Flussdiagramme und Aktivitätsdiagramme in UML.

 Funktionssicht

Die Funktionssicht zeigt alle betriebswirtschaftlich relevanten Beziehungen in einem Funktionsbaum. In der hierarchischen Ansicht sind untergeordnete Vorgänge den übergeordneten Vorgängen zugeordnet.

Leistungssicht

Die Leistungssicht zeigt alle Produkte und Dienstleistungen in einem Produkt- und Dienstleistungsbaum.

Die 3 Ebenen der Beschreibung

Jede ARIS Schicht besitzt drei Beschreibungsebenen.

Fachkonzept

Das Fachkonzept beschreibt die Prozesse und Abläufe in einer verständlichen Sprache. Zudem werden weitere Datenmodelle genutzt. Dies wären zum Beispiel Organigramm, Funktionsbaum, ERM.

DV-Konzept

Im DV-Konzept wird spezifiziert, was wie in der EDV umgesetzt wird. Hier werden Schnittstellen definiert, und es werden Freiheitsgrade in der Datenverarbeitung herausgearbeitet. Genutzt werden dazu, UML, Relationen, Struktogramme und Topologien.

Implementierungsebene

Es erfolgt die Umsetzung der beschriebenen Prozesse durch Programmierung. Zur Erstellung werden Server, Datenbanken, Schnittstellen und Protokolle genutzt.

 

„ARIS-Modell“ von Marcel Light – Eigenes Werk. Lizenziert unter Creative Commons Zero

Software Entwicklung mit dem Wasserfall Modell

Bei der klassischen Software Entwicklung wird oft das statische Wasserfall Modell eingesetzt. Diese zeichnet sich durch eine strukturierte Vorgehensweise mit 5 oder 6 Phasen aus. Es eignet sich vor allem bei klar definierbaren Anforderungen und Prozessen.

Wasserfall Modell

 

Vorteile des Wasserfall Modells

  • Die Planung lässt sich gut durchzuführen
  • Die Phasen können eindeutig definiert werden
  • Die notwendigen Ressourcen lassen sich bei nicht veränderten Bedingungen gut abschätzen
  • Eine Kontrolle kann gut in den Prozess integriert werden

Nachteile  des Wasserfall Modells

  • Starres System – Änderungen lassen sich nicht flexibel umsetzen
  • In der Praxis gibt es meist keine klar abgegrenzten Phasen
  • Der Einsatz des Produkts erfolgt zu einem späten Zeitpunkt
  • Fehler werden unter Umständen spät erkannt und führen durch größeren Aufwand zu höheren Kosten

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

4 Vorteile durch Weiterbildung in Europa

Wenn Sie neu in Deutschland sind und Ihre Kenntnisse in bestimmten Technologien aufbessern wollen. Wenn Sie kulturelle- und Management Kenntnisse benötigen, dann kann eine Weiterbildung Ihnen den nötigen Wissensvorsprung liefern.

Über 50 % der Beschäftigten in Deutschland nehmen jährlich an einer Weiterbildung teil, bei der meist der berufliche Bereich im Vordergrund steht. Gerade Akademiker bilden sich überdurchschnittlich weiter und das verschafft ihnen Vorteile im Berufsleben und bei der Karriere.

Was bedeutet “Information” im Kontext der Informatik

Der Begriff Information ist in der römischen Antike zum Beispiel durch Cicero als Vorstellung der Götter “informatio dei” genutzt worden. Augustinus hat mit “informatio sensus” den Prozess der sinnlichen Wahrnehmung auch als Unterweisung und Belehrung abgeleitet. Im 15. und 16. Jahrhundert wurde “informare” für die Tätigkeit der Benachrichtigung genutzt.

Der Mathematiker Claude E. Shannon definierte 1948 in seinem Aufsatz ” A Mathematical Theory of Communication” den Begriff Information im Kontext der Nachrichtentechnik. Daraus entstanden Wissenschaftsbereiche wie Informationswissenschaft und Informatik. Aber auch die Disziplinen Soziologie, Medientheorie und Philosophie wurden dadurch beeinflusst.(1)

Betrachten wir die nun den Prozess der Entstehung von Information und Wissen

Daten sind in der Informatik Zeichen, die meist maschinell bearbeitbar sind. Stehen diese Zeichen im Kontext einer Bedeutung, dann werden aus strukturierten Daten Informationen. Aus Informationen wird Wissen, wenn Menschen durch Beobachtung oder Erfahrung auf Zusammenhänge schließen. Nach der Philosophie Kants wird dies mit durch den Verstand kontrollierte Vernunft erreicht.

Beispiel

Daten 08937432
Information (durch Kontext “Telefonnummer”) 08937432
Wissen (durch Erfahrung oder Beobachtung: München hat die Vorwahl “089”) 08937432

 

In diesem Zusammenhang gibt es eine asiatische Sichtweise, die ein berühmter asiatischer Philosoph schrieb (2)

Die Nichtwissenheit wissen
ist das Höchste.
Nicht wissen, was Wissen ist,
ist ein Leiden.
Nur wenn man unter diesem Leiden leidet,
wird man frei von Leiden.
Daß der Berufene nicht leidet,
kommt daher, daß er an diesem Leiden leidet;
darum leidet er nicht.

 

Quelle: (1) Alexander Roesler/Bernd Stiegler “Grundbegriffe der Medientheorie”; (2) Laotse

Die ABC Analyse in 4 Schritten durchführen

Die ABC-Analyse wird unter Anderem zur Planung, Kostenminimierung und Entscheidungsfindung eingesetzt wird. Die ABC Analyse wurde H. Ford Dickie erstmals beschrieben. Die Basis dafür bilden das Pareto Prinzip (die 80/20 Regel) und die Lorenz Kurve. Eingesetzt wird die ABC Analyse bei betriebswirtschaftlichen Analysen, Kosten, Lagerbeständen, Umsätzen, aber auch in der Personalwirtschaft und der Fertigung eingesetzt.

 

Daten der ABC-Analyse

Typ Umsatz in Mio. €
 Reifen  26,1
 Felgen  19,8
 Öl  35,6
 Zündkerzen  6,4
 Reinigungsmittel  16,9
 Lampen  2,9
 Autoradio  12,3
 KFZ-Ersatzteile  44,1
 Scheibenwischer  2,2
Gesamtsumme 166,3

 

Schritt 1 der ABC-Analyse

Ergänzen Sie die Tabelle um die Spalten Anteil in %Kumulierte % und Klasse.
Dann sortieren Sie absteigend den Umsatz in Mio. €.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1
Öl 35,6
Reifen 26,1
Felgen 19,8
Reinigungsmittel 16,9
Autoradio 12,3
Zündkerzen 6,4
Lampen 2,9
Scheibenwischer 2,2
Gesamtsumme 166,3

 

Schritt 2 der ABC Analyse

Als nächstes wird in der mittleren Spalte der prozentuale Anteil ausgerechnet.

Die Formel lautet: Anteil in % = Umsatz des Produkts/Gesamtsumme * 100

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52
Öl 35,6 21,41
Reifen 26,1 15,69
Felgen 19,8 11,91
Reinigungsmittel 16,9 10,16
Autoradio 12,3 7,40
Zündkerzen 6,4 3,85
Lampen 2,9 1,74
Scheibenwischer 2,2 1,32
Gesamtsumme 166,3

 

 Schritt 3 der ABC Analyse

Im weiteren Schritt werden die Anteile in % kumuliert (summiert) und in die Spalte Kumulierte % eingetragen.

Beispiel: Öl (kumulierte %) = 26,52 + 21,41 = 47,93; Reifen (kumulierte %) = 47,93 + 15,69 = 63,62

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52
Öl 35,6 21,41 47,93
Reifen 26,1 15,69 63,62
Felgen 19,8 11,91 75,53
Reinigungsmittel 16,9 10,16 85,69
Autoradio 12,3 7,40 93,08
Zündkerzen 6,4 3,85 96,93
Lampen 2,9 1,74 98,68
Scheibenwischer 2,2 1,32 100
Gesamtsumme 166,3

 

Schritt 4 der ABC Analyse

Im letzten Schritt werden die untersuchten Daten in drei Klassen eingeteilt. Die A Klasse bei meist 75% – 80%. Die B Klasse bei 15% – 20% und die C Klasse bei 5%. Die Summe der drei Klassen beträgt immer 100%.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52  A
Öl 35,6 21,41 47,93  A
Reifen 26,1 15,69 63,62  A
Felgen 19,8 11,91 75,53  B
Reinigungsmittel 16,9 10,16 85,69  B
Autoradio 12,3 7,40 93,08  B
Zündkerzen 6,4 3,85 96,93  C
Lampen 2,9 1,74 98,68  C
Scheibenwischer 2,2 1,32 100  C
Gesamtsumme 166,3

 

Fazit:

Mit Hilfe der ABC Analyse lassen sich

  • Schwerpunkte ermitteln
  • Prioritäten festlegen
  • Unwesentliches von Wesentlichen unterscheiden

Diese häufig eingesetzte Methode sollte in keinem “Werkzeugkasten” fehlen.

Scrum – Agile Web- und Software Entwicklung

Scrum wurde in einem Projekt im Zuge der Zusammenarbeit von Ikurjio Nonaka und Jeff Sutherland entwickelt. Mit Scrum versucht man Anpassung, Transparenz und Kontrolle in der Software Entwicklung weitestgehend zu vereinfachen. Dadurch wird eine kostengünstige, schnelle  und hochwertige Entwicklung von Software Produkten und -Dienstleistungen ermöglicht. Scrum basiert auf Erfahrung und wird iterativ erweitert. Scrum benutzt Rollen mit unterschiedlichen Aufgaben und Verantwortungen.

Rollen bei Scrum

Das Entwickler Team liefert die vom Product Owner gewünschten Produktteile oder Dienstleistungen in der gewünschten Reihenfolge. Zudem sind die Entwickler für die Qualität des Produkts verantwortlich. Dazu werden Qualitätsstandards vereinbart.

Der Scrum Master kümmert sich als Führungskraft um das Entwickler Team, gehört dem Team aber nicht an. Er kümmert sich um die Organisation und hilft Störungen, Konflikte und Hindernisse zu beseitigen.

In der Rolle als Product Owner ist man für die Konzeption, Festlegung der Produkteigenschaften und die Priorisierung verantwortlich. Er steuert damit den wirtschaftlichen Nutzen für das Unternehmen, ist aber kein Vertreter des Kunden.

Der Kunde oder Auftraggeber wird als Customer dem Product Owner aufzeigen, was das Produkt für Eigenschaften haben soll. Zudem wird der Customer ab einer frühen Phase periodisch das zu entwickelnde Produkt prüfen und Feedback an den Product Owner geben.

Das Management hat bei der Bereitstellung der Ressourcen und dem Ausräumen von Hemmnissen zu unterstützen. Dadurch werden die Rahmenbedingungen stabilisiert.

Die User sind die zukünftigen Nutzer des Produkts oder der Dienstleistung. Daher sind Sie in der Lage die Funktionalität des Produkts zu beurteilen. Zudem können Sie das Produkt ab einer frühen Phase regelmäßig, zum Beispiel nach einem Entwicklungszyklus, ausprobieren und Ihre Ergebnisse und Veränderungsvorschläge mitteilen. diese kann der Product Owner aufgreifen und zur weiteren Entwicklung einfließen lassen.

Dazu wurde im Jahre 2001 das Agile Manifest für Scrum entwickelt, das ich hier angepasst habe.

Agiles Manifest

  • Eine beständige Zusammenarbeit mit dem Kunden als Partner steht über den Verträgen
  • Kommunikation, Mut und die Offenheit für Änderungen gilt mehr als das genaue Befolgen eines festgelegten Plans
  • Menschen und Zusammenarbeit gelten mehr als Werkzeuge und Prozesse, ersetzen diese aber nicht
  • Funktionierende Programme sind höher einzustufen als ausführliche Dokumentation.

Fazit:

Lean Production in japanischen Unternehmen verfolgt ähnliche Ansätze wie Scrum und nutzt für eine bessere Wertschöpfung unter anderem starkes Teamworking und erfolgreiches Wissensmanagement. Hier sehe ich auch den wichtigen Unterschied. Es wird auch bei Scrum Dokumentation gebraucht, wenn diese nicht “Just in Time” zur Verfügung steht, dann verliert der Scrum Prozess an Effektivität!

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Alternativen, um Sicherheitslücken wie Meltdown … zu vermeiden

Deutschland hat Alternativen nötig. Denn Merkel Aussage „Das ist Alternativlos“ treibt Deutschland und Europa in die Hände von transatlantischen Gruppen, die Deutschland und Europa als Konkurrenten sehen. Trotz allem sind Merkel und weitere Abgeordnete Mitglieder mit transatlantischen Verbindungen wie  z. B. bei der Atlantikbrücke und haben die Interessen der deutschen Bevölkerung verkauft.

Die USA entwickeln mit Intel und AMD Hard und Software, die nach US-Geheimgesetzen von den westlichen Diensten ausgespäht werden können.

 

Daher hat China 2004 mit der Entwicklung eigener Prozessoren begonnen um die Interessen des chinesischen Volkes zu sichern. Die enthalten keine Backdoor für westliche Geheimdienste.  Auf deren Begehren wird bereits in einem Artikel aus den Jahr 2013 hingewiesen:

NSA May Have Backdoors Built Into Intel And AMD Processors

Der weiterführende Artikel des „Australian Financial Review“ wurde vor einiger Zeit gelöscht und bei Nachfrage wird dies von US Behörden wie seit Jahrzehnten als „Verschwörungstheorie“ abgetan.

Alternativen von Zhaoxin

Einer der chinesischen Hersteller heißt Zhaoxin. Diese bringen eine neue CPU Generation KX-5000 (Wudaokou) auf den Markt . Nach einer Meldung von Weiwenku hat ein KX-5000 ca. 2,1 Milliarden Transistoren. Das Topmodell KX-U5680 mit 2 GHz, erreicht im Cinebench R11.5 4,01 Punkte. Das ist etwas langsamer als ein Intel Core i3-6100 mit zwei Kernen plus Hyperthreading. Die neue Prozessorgeneration ist nicht für Meltdown anfällig, aber für eine nicht genannte Variante von Spectre.

Zhaoxin gehört überwiegend dem chinesischen Staat und wird nach wikichip.org folgendermaßen  beschrieben:

… In case you’ve never heard about Zhaoxin, they are a Chinese microprocessor designer that has been working on developing a domestic x86 CPU microarchitecture. Being partially owned by VIA Technologies most likely means they are covered by VIA’s x86 cross-license agreement, although VIA refused to confirm this when we asked. The 2010 FTC settlement required Intel to modify agreements with AMD, Nvidia, and Via to allow them to undergo mergers and joint ventures with other companies without the threat of being sued for patent infringement. Zhaoxin is majority owned (80.1%) by the Shanghai Municipal Government and the push for domestic x86 chips comes as part of their national security initiative which calls for the reduction in reliance on foreign products and greater control over their own intellectual property (i.e., the hardware in this case). …

Kommentar zu Spectre und Meltdown: Zeigen wir Monopolisten den Mittelfinger