VUCA und die Herausforderung der IT

VUCA in der IT stellt Herausforderungen und Chancen am Beispiel einer Cloud-Migration

Die IT-Welt ist ein dynamisches, oft chaotisches Umfeld, das stark von VUCA geprägt ist.

VUCA steht für

  • Volatility (Volatilität)
  • Uncertainty (Unsicherheit)
  • Complexity (Komplexität)
  • Ambiguity (Mehrdeutigkeit)

Diese Begriffe beschreiben die Herausforderungen moderner IT-Landschaften, insbesondere in einer Ära, die von Digitalisierung, Automatisierung und globaler Vernetzung geprägt ist. Um zu verdeutlichen, wie VUCA die IT beeinflusst, betrachten wir die Cloud-Migration eines mittelständischen Unternehmens.

Volatilität: Schnelle Veränderungen

In der IT sind Technologien, Marktanforderungen und regulatorische Rahmenbedingungen ständig im Wandel. Bei der Entscheidung, von einer On-Premises-Infrastruktur zu einer Cloud-Lösung zu wechseln, muss das Unternehmen auf plötzliche Veränderungen reagieren. Ein Beispiel könnte die Ankündigung eines Cloud-Anbieters sein, eine bestimmte Technologie oder einen Service einzustellen. Diese Volatilität erfordert schnelle Entscheidungen und flexible Anpassungen, um den Geschäftsbetrieb nicht zu gefährden.

Beispiel: Während der Cloud-Migrationsphase kündigt der bevorzugte Anbieter neue Preisstrukturen an, die die Betriebskosten erheblich erhöhen könnten. Das Unternehmen muss nun alternative Anbieter evaluieren oder die Projektkosten neu kalkulieren.

Unsicherheit: Unvorhersehbare Ergebnisse

Die IT-Projekte sind häufig mit Unsicherheiten behaftet. Bei der Cloud-Migration können unterschiedliche Fragen aufkommen, wie

  • Werden die neuen Systeme reibungslos funktionieren?
  • Wird die Performance ausreichen?

Solche Unsicherheiten erschweren die Planung und die Definition klarer Projektziele.

Beispiel: Trotz umfangreicher Tests stellt sich nach der Migration heraus, dass eine unternehmenskritische Anwendung in der neuen Cloud-Umgebung langsamer läuft. Die IT-Abteilung muss ad hoc nach Lösungen suchen, ohne genau zu wissen, wie lange dies dauern wird.

Komplexität: Vielschichtige Abhängigkeiten

Die IT-Systeme sind heute hochgradig komplex und miteinander vernetzt. Bei der Cloud-Migration müssen nicht nur Daten und Anwendungen verschoben werden, sondern auch Sicherheitskonzepte, Netzwerkkonfigurationen und Compliance-Vorgaben berücksichtigt werden.

Beispiel: Während der Migration entdecken die IT-Teams, dass bestimmte ältere Anwendungen nicht mit der Cloud kompatibel sind. Um die Migration erfolgreich abzuschließen, müssen entweder die Anwendungen modernisiert oder alternative Lösungen entwickelt werden – eine komplexe Herausforderung.

Mehrdeutigkeit: Unklare Rahmenbedingungen

Mehrdeutigkeit entsteht, wenn Informationen oder Anweisungen nicht eindeutig sind. In der Cloud-Migration zeigt sich dies beispielsweise bei der Interpretation von Service-Level-Agreements (SLAs) oder Datenschutzanforderungen.

Beispiel: Der Cloud-Anbieter garantiert eine Verfügbarkeit von 99,9 %, was zunächst ausreichend klingt. Doch bei genauerer Analyse stellt sich heraus, dass dies nur für bestimmte Regionen gilt, die nicht mit den Anforderungen des Unternehmens übereinstimmen. Diese Mehrdeutigkeit kann zu Fehlentscheidungen führen.

Strategien zur Bewältigung von VUCA in der IT

Um mit VUCA effektiv umzugehen, gibt es bewährte Ansätze.

  • Agilität fördern: Ein agiles Projektmanagement ermöglicht schnelle Anpassungen an volatile Bedingungen.
  • Transparenz schaffen: Klare Kommunikation und umfassende Risikoanalysen können Unsicherheiten reduzieren.
  • Komplexität managen: Der Einsatz von spezialisierten Tools, wie automatisierten Monitoring-Systemen, hilft, den Überblick zu behalten.
  • Klarheit durch Schulungen: Mitarbeiter müssen regelmäßig geschult werden, um Mehrdeutigkeit in technischen und rechtlichen Fragen zu minimieren.

Fazit

Das Beispiel der Cloud-Migration zeigt, wie VUCA die IT-Welt prägt und welche Herausforderungen Unternehmen meistern müssen. Mit den richtigen Strategien können jedoch aus Unsicherheiten Chancen werden. Die Fähigkeit, schnell und flexibel auf Veränderungen zu reagieren, ist ein entscheidender Erfolgsfaktor in der digitalen Transformation. VUCA mag komplex erscheinen, doch es bietet auch die Möglichkeit, innovative Lösungen zu entwickeln und Wettbewerbsvorteile zu schaffen.

RPZ in der FMEA – Optimierungsmaßnahmen bei Risiken

Die Risikoprioritätszahl (RPZ) ist ein zentrales Instrument der FMEA, um potenzielle Risiken in einem Prozess oder Produkt zu bewerten und zu priorisieren. Sie wird durch Multiplikation der Auftrittswahrscheinlichkeit (A), der Bedeutung (B) und der Entdeckungswahrscheinlichkeit (E) berechnet:

RPZ = A * B * E

Eine RPZ im Bereich von 100 bis 150 zeigt an, dass Optimierungsmaßnahmen notwendig sind. Ziel dieser Maßnahmen ist es, die Auftrittswahrscheinlichkeit, die Bedeutung oder die Entdeckungswahrscheinlichkeit zu senken, um die RPZ zu reduzieren und das Risiko beherrschbar zu machen.

Beispiel für die RPZ-Berechnung:

Parameter Wert vor Maßnahme Wert nach Maßnahme
Auftrittswahrscheinlichkeit (A) 5 3
Bedeutung (B) 8 8
Entdeckungswahrscheinlichkeit (E) 4 2
RPZ 160 48

Ausgangssituation:
Ein Spannungsausfall eines Netzteils wurde analysiert. Die RPZ lag bei 160, was als kritisch eingestuft wurde.

Optimierungsmaßnahmen:

  • Verbesserung der Qualitätssicherung durch Einführung standardisierter Tests (Reduktion von A).
  • Implementierung eines Monitoring-Systems zur frühzeitigen Fehlererkennung (Reduktion von E).

Ergebnis:
Nach Umsetzung der Maßnahmen konnte die RPZ auf 48 gesenkt werden, was das Risiko in einen akzeptablen Bereich bringt. Im Regelfall wird dies im FMEA Dokument beschrieben.

Das AIDA Prinzip und der Elevator Pitch

Das AIDA-Prinzip lässt sich hervorragend im betrieblichen Vorschlagswesen, aber auch auf die Vermarktung eines IoT-Produkts mit Microcontrollern anwenden. Dabei spielt der Elevator Pitch eine wichtige Rolle, um in wenigen Sekunden die Aufmerksamkeit der Zielgruppe zu gewinnen und das Interesse an dem Produkt zu wecken. Hier ein Beispiel für eine smarte IoT-Umgebung, z. B. ein DIY-Kit zur Heimautomatisierung.

  1. Attention (Aufmerksamkeit)
    Die Aufmerksamkeit wird durch einen prägnanten Elevator Pitch in Technik-Foren oder sozialen Medien erregt, etwa: „Mit unserem DIY-IoT-Kit verwandeln Sie Ihr Zuhause in ein smartes, energieeffizientes Paradies – in nur 10 Minuten!“ Ergänzt wird dies durch ein animiertes Video, das zeigt, wie der Microcontroller mithilfe von Sensoren eine smarte Beleuchtung steuert, die automatisch auf Tageslicht und Präsenz reagiert.
  2. Interest (Interesse)
    Das Interesse wird geweckt, indem technische Details des Produkts auf der Website oder in einem Blogbeitrag vorgestellt werden. Zum Beispiel wird erklärt, wie einfach die Einrichtung ist, wie verschiedene Geräte miteinander kommunizieren und wie der Microcontroller durch offene Standards wie MQTT oder Zigbee flexibel integriert werden kann.
  3. Desire (Verlangen)
    Das Verlangen wird verstärkt, indem Erfolgsgeschichten von Nutzern gezeigt werden. Beispielsweise teilt ein Maker in einem Video, wie er mit dem DIY-Kit nicht nur Energie gespart, sondern auch sein Zuhause sicherer gemacht hat. Bilder und Videos von realen Anwendungen machen das Produkt greifbar und zeigen die Vorteile.
  4. Action (Handlung)
    Die Handlung wird durch einen Call-to-Action angeregt, wie z. B. einen limitierten Einführungspreis oder ein kostenloses E-Book mit Projektideen für Käufer. Ein „Jetzt bestellen“-Button führt direkt zur Produktseite, während ein Countdown-Timer die Dringlichkeit erhöht.

Fazit

Der Elevator Pitch ergänzt das AIDA-Prinzip perfekt, indem er die Aufmerksamkeit im ersten Schritt kurz und prägnant einfängt. Kombiniert mit den weiteren AIDA-Phasen wird eine schlüssige und wirkungsvolle Marketingstrategie geschaffen, die besonders für technische Produkte wie IoT-Kits mit Microcontrollern geeignet ist.

Binärpräfix und Dezimalpräfix

Binär- und Dezimalpräfixe spielen eine zentrale Rolle in der Technik, um Datenmengen und Speicherkapazitäten genau zu beschreiben. Da Computer auf binären Systemen basieren, ermöglichen Binärpräfixe eine präzise Darstellung von Speichergrößen, die den tatsächlichen Speicher-anforderungen entsprechen. Dezimalpräfixe hingegen folgen dem metrischen System und sind ideal für allgemeine technische Anwendungen, da sie eine einfache Skalierung und Verständlichkeit bieten.

Die Unterscheidung zwischen beiden Präfixarten ist entscheidend, um Missverständnisse zu vermeiden und spezifische Anforderungen in der digitalen Datenverarbeitung und Kommunikation exakt darzustellen. Der Unterschied zwischen Binärpräfixen und Dezimalpräfixen liegt in der Basis, auf der sie beruhen.

Aufbau des Dezimalpräfix

Der Dezimalpräfix basierend auf der Zehnerpotenz und nutzt die Basis 10. Dieses Zahlensystem wird meist in der allgemeinen Technik und bei Datenübertragungsraten verwendet, wie z. B. bei Netzwerkgeschwindigkeiten.

1 kB (Kilobyte) = 10³ Byte = 1000 Byte
1MB (Megabyte) = 10⁶ Byte = 1000 * 1000 Byte
1GB (Gigabyte) = 10⁹ Byte = 1000 * 1000 * 1000 Byte

Aufbau des Binärpräfix

Der Binärpräfix basiert auf der Zweierpotenz und nutzt die Basis 2. Es wird in der Regel bei IT Systemen verwendet, um z.B. Speicherkapazitäten und Arbeitsspeicher von Computern und weiteren IT Geräten anzugeben, da diese Systeme binär organisiert sind.

1 KiB (Kibibyte) = 2¹⁰ Byte = 1024 Byte
1 MiB (Mebibyte) = 2²⁰ Byte = 1024 * 1024 Byte
1 GiB (Gibibyte) = 2³⁰ Byte = 1024 * 1024 * 1024 Byte

(SI) Dezimalpräfix (IEC) Binärpräfix
Byte B 1 Byte B 1
Kilobyte kB 1000=10³ Kibibyte KiB 1024=2¹⁰
Megabyte MB 1000²=10⁶ Mebibyte MiB 1024²=2²⁰
Gigabyte GB 1000³=10⁹ Gibibyte GiB 1024³=2³⁰
Terabyte TB 1000⁴=10¹² Tebibyte TiB 1024⁴=2⁴⁰
Petabyte PB 1000⁵=10¹⁵ Pebibyte PiB 1024⁵=2⁵⁰
Exabyte EB 1000⁶=10¹⁸ Exbibyte EiB 1024⁶=2⁶⁰

SI heißt System International und basiert auf der Maßeinheiten des metrischen Systems.
IEC heißt Internationale Elektrotechnische Kommission und ist die Normierungsorganisation für die Elektrotechnik und Elektronik

Fazit

Binärpräfixe (z. B. KiB, MiB, GiB) sind präzise und basieren auf Zweierpotenzen, die die tatsächliche Speicherkapazität im binären System darstellen. Dezimalpräfixe (z. B. kB, MB, GB) sind standardisiert für allgemeine und technische Anwendungen und basieren auf Zehnerpotenzen.

Die Unterscheidung ist wichtig, um Missverständnisse über die tatsächliche Größe und Leistung von Speichermedien und Übertragungsraten zu vermeiden.

Schutzmaßnahmen bei elektrischen Anlagen nach VDE 0100-600

Wenn elektrische Geräte und Anlagen in Betrieb genommen, gewartet oder repariert werden sollen, gibt es wichtige Punkte zur Sicherheit und zum Personenschutz zu beachten. Einen Anhaltspunkt dazu gibt die VDE 0100-600. Es darf nur qualifiziertes Personal, wie Elektrofachkräfte, diese Arbeiten durchführen.

Elektrofachkräfte sind zum Beispiel Elektrotechniker oder Ingenieure, die über die erforderliche Ausbildung und Kenntnisse verfügen. Es ist wichtig, die Sicherheitsstandards einzuhalten, um Gefahren zu vermeiden.

Elekrische Gefahren

– Elektrischer Schlag
– Stromdurchfluss durch den Körper
– Verbrennungen
– Lichtbogenbildung
– Explosions- und Brandgefahr
– Mechanische Gefahren
– Sekundäre Gefahren

Schutzmaßnahmen nach VDE 0100-600

Nach VDE 0100-600 umfassen die Haupttätigkeiten zur Vermeidung von Gefahren an elektrischen Anlagen folgende Maßnahmen:

Isolationsprüfung

Stellen Sie sicher, dass Leitungen und Bauteile ordnungsgemäß isoliert sind. Dies verhindert elektrische Schläge und Verletzungen.

Durchgängigkeit des Schutzleiters

Überprüfen Sie, um Erdungsfehler zu vermeiden, dass der Schutzleiter korrekt angeschlossen und funktionstüchtig ist.

Fehlerschutz durch RCD (FI-Schalter)

Der Einsatz von Fehlerstromschutzschaltern und deren korrekte Funktion verhindern Stromfluss durch den Körper.

Spannungsfreiheit feststellen

Bevor Arbeiten an elektrischen Anlagen durchgeführt werden stellen Sie sicher, dass an der Anlage keine Spannung anliegt. Die Anlage kann z.B. vor Beginn von Arbeiten  geerdet werden. Auch eine Sicherung vorveresehenlichen Einschalten ist sinnvoll.

Schutz durch geeignete Abschaltbedingungen

Um Überhitzung und Brände zu vermeiden sollten Sie die Anlage so absichern, dass die Anlage bei Überlast oder Fehlern automatisch abschaltet.

Anlagenkennzeichnung und Zugänglichkeit sicherstellen

Kennzeichnen Sie und Sichern Sie die Anlage so, dass sie nur von autorisiertem Fachpersonal betreten und bedient werden kann. Ein Hinweisschild vor der Beginn von Wartungs- und Reparaturarbeiten ist anzubringen.

Mechanischer Schutz und Abdeckung

Nutzen Sie isolierende Decken zum Schutz vor spannungsführenden Teilen nach dem Entfernen von Abdeckungen und Gehäusen, um versehentlichen Kontakt mit spannungsführenden Teilen zu verhindern.

Prüfprotokolle und regelmäßige Wartung

Dokumentieren Sie alle Prüfungen, Reparaturen und regelmäßige Wartungen, um die langfristige Sicherheit der Anlage sicherzustellen.

Fazit

Diese Maßnahmen gewährleisten die Sicherheit, sowohl bei der Installation, bei Reparatur, Wartung, als auch im Betrieb und sind essenziell für die Einhaltung der VDE-Vorschriften.

Der Rückkanal der Kommunikation

Im 21. Jahrhundert sind trotz des mehr als 30 jährigen Bestehens der Kommunikation über das Internet massive Kommunikationshemmnisse vorhanden. Dies kann verschiedene Ursachen haben.

So zum Beispiel Unkenntnis, wie die Kommunikation von heute funktioniert.
Oder willentliche Beeinflussung, basierend auf Wünschen der Medieneigner.

 

John F. Kennedy
John F. Kennedy aus der Wikipedia

Denn das, was heute nicht funktioniert, wird bereits von dem am 22.11.1963  ermordeten US Präsidenten John F. Kennedy beschrieben:

Allein das Wort Geheimhaltung ist in einer freien und offenen Gesellschaft unannehmbar; und als Volk sind wir von Natur aus und historisch Gegner von Geheimgesellschaften, geheimen Eiden und geheimen Beratungen.
Wir entschieden schon vor langer Zeit, dass die Gefahren exzessiver, ungerechtfertigter Geheimhaltung sachdienlicher Fakten die Gefahren bei Weitem überwiegen, mit denen die Geheimhaltung gerechtfertigt wird. Selbst heute hat es wenig Wert, den Gefahren, die von einer abgeschotteten Gesellschaft ausgehen, zu begegnen, indem man die gleichen willkürlichen Beschränkungen nachahmt.
Selbst heute hat es kaum Wert, das Überleben unserer Nation sicherzustellen, wenn unsere Traditionen nicht mir ihr überleben. Und es gibt die schwerwiegende Gefahr, dass ein verkündetes Bedürfnis nach erhöhter Sicherheit von den Ängstlichen dazu benutzt wird, seine Bedeutung auf die Grenzen amtlicher Zensur und Geheimhaltung auszuweiten.
Ich beabsichtige nicht, dies zu erlauben, soweit es in meiner Macht steht,…
Denn wir stehen rund um die Welt einer monolithischen und ruchlosen Verschwörung gegenüber, die sich vor allem auf verdeckte Mittel stützt, um ihre Einflusssphäre auszudehnen – auf Infiltration anstatt Invasion; auf Unterwanderung anstatt Wahlen; auf Einschüchterung anstatt freier Wahl; auf nächtliche Guerillaangriffe anstatt auf Armeen bei Tag.
Es ist ein System, das mit gewaltigen menschlichen und materiellen Ressourcen eine eng verbundene, komplexe und effiziente Maschinerie aufgebaut hat, die militärische, diplomatische, geheimdienstliche, wirtschaftliche, wissenschaftliche und politische Operationen kombiniert. Ihre Pläne werden nicht veröffentlicht, sondern verborgen, ihre Fehlschläge werden begraben, nicht publiziert, Andersdenkende werden nicht gelobt, sondern zum Schweigen gebracht, keine Ausgabe wird infrage gestellt, kein Gerücht wird gedruckt, kein Geheimnis wird enthüllt.

Es spielt bei dieser Untersuchung keine Rolle, was für ein Ausgangspunkt in Betracht gezogen wird. Denn es gilt die Ursache zu ergründen.

 

Agiles Projektmanagement mit Kanban

Kanban Logo

Kanban ist eine Methodik zur Optimierung von Arbeitsabläufen, die ursprünglich in der japanischen Automobilindustrie entwickelt wurde. Sie basiert auf dem Prinzip der visuellen Darstellung von Aufgaben, deren Status und Fortschritt, meist auf einem „Kanban-Board“. Dies hilft dabei, Engpässe zu identifizieren, die Arbeitslast zu regulieren und die Effizienz des Teams zu steigern

Wie funktioniert Kanban?

Ein Kanban-System ist ziemlich einfach aufgebaut. Es besteht normalerweise aus einem physischen oder digitalen Kanban-Board und darauf platzierten Kanban-Karten.

Kanban Tafel

Das Kanban-Board ist in mehrere Spalten unterteilt, die den unterschiedlichen Stadien des Arbeitsprozesses entsprechen. Die einfachste Form hat drei Spalten: „Zu erledigen“ (To Do), „In Arbeit“ (In Progress) und „Erledigt“ (Done).

Jede Aufgabe im Arbeitsprozess wird auf einer separaten Kanban-Karte dargestellt. Diese Karte enthält Informationen wie die Aufgabenbeschreibung, den verantwortlichen Mitarbeiter, das Startdatum und das Fälligkeitsdatum.

Wenn eine neue Aufgabe ansteht, wird sie als Karte in die „Zu erledigen„-Spalte eingefügt. Wenn jemand an der Aufgabe arbeitet, wird die Karte in die „In Arbeit„-Spalte verschoben. Sobald die Aufgabe abgeschlossen ist, wird die Karte in die „Erledigt„-Spalte verschoben.

Beispiel zur Nutzung von Kanban

Angenommen, Sie sind Teil eines Softwareentwicklungsteams. Die Kanbantafel des Teams könnte so aussehen:

Zu erledigen
1. Funktion zur Benutzeranmeldung erstellen
2. Datenbank für Benutzerinformationen einrichten
3. Design der Startseite entwerfen

In Arbeit
1. Backend für die Benutzeranmeldung entwickeln
2. Testen der Anmeldungs- und Abmeldefunktionen

Erledigt
1. Spezifikationen für die Anwendungsfälle erstellen
2. Entwurf des Anmeldeformulars

Jeder im Team kann den Status jeder Aufgabe auf der Kanbantafel sehen und so schnell erkennen, welche Aufgaben Priorität haben und wer gerade welche Aufgabe bearbeitet.

Die Grundregel des Kanban-Systems ist es, die Anzahl der gleichzeitig „in Arbeit“ befindlichen Aufgaben zu begrenzen. Diese Begrenzung wird als „Work in Progress“ (WIP) -Limit bezeichnet. Das hilft, Überlastung zu vermeiden und sicherzustellen, dass Aufgaben vollständig abgeschlossen werden, bevor neue Aufgaben in Angriff genommen werden.

Es können Engpässe während der Entwicklung schnell erkannt werden und dadurch können passende Gegenmaßnahmen zur Verbesserung umgesetzt werden.

Fazit

Der Einsatz von Kanban in der Softwareentwicklung bietet eine einfache, aber effektive Methode zur Visualisierung und Kontrolle des Arbeitsflusses. Es fördert Transparenz, Zusammenarbeit und unterstützt die kontinuierliche Verbesserung. Durch die Einführung von WIP-Limits kann Kanban dabei helfen, Multitasking zu vermeiden und die Produktivität zu steigern. Insgesamt kann Kanban wesentlich dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Entwicklungszeiten zu verkürzen.

 

 

Internet der Dinge oder IoT, was ist das?

IoT steht für das Internet der Dinge (Internet of Things). Es bezieht sich auf das Konzept, dass physische Objekte und Geräte miteinander und mit dem Internet verbunden sind. Die Geräte sind in der Lage, Daten auszutauschen und miteinander zu kommunizieren.

Im IoT werden Objekte und Geräte mit Sensoren ausgestattet, die Daten über ihre Umgebung, ihren Zustand oder ihre Leistungsfähigkeit erfassen können. Diese Daten werden dann über Netzwerkverbindungen, wie z. B. drahtlose oder kabelgebundene Verbindungen, an andere Geräte, Systeme oder Cloud-Plattformen übertragen. Dort werden die Daten verarbeitet, analysiert und genutzt, um Erkenntnisse zu gewinnen, Aktionen auszulösen oder Entscheidungen zu treffen.

Durch das IoT werden verschiedene Bereiche des täglichen Lebens und der Industrie transformiert.

IoT Industrie

Beispiele für IoT-Anwendungen im Smart Home

Das Internet der Dinge bietet eine breite Palette von Einsatzmöglichkeiten im smarten Zuhause, in dem vernetzte Geräte und Systeme zu einem intelligenten und automatisierten Wohnraum führen.

1. Hausautomatisierung durch Steuerung, Vernetzung und Sensorik

IoT ermöglicht die Steuerung verschiedener Aspekte des Hauses, einschließlich Beleuchtung, Heizung, Klimatisierung und Sicherheitssysteme. Durch vernetzte Geräte und Sensoren können Benutzer diese Systeme fernsteuern und automatisierte Zeitpläne oder Szenarien erstellen, um Energie zu sparen und den Komfort zu verbessern.

2. Energieeffizienz erhöhen

Durch das Internet der Dinge wird der Energieverbrauch im Smart Home optimiert. Durch Sensoren und intelligente Thermostate können Heizung und Kühlung automatisch an anwesende Personen oder wechselnde Umgebungsbedingungen angepasst werden. Basierend auf Bewegungserkennung und Tageslichtstärke steuern smarte Beleuchtungssysteme die Beleuchtung. Dadurch können Energieeinsparungen erzielt werden.

3. Überwachung ermöglichen

IoT-basierte Sicherheitssysteme ermöglichen die Fernüberwachung des Hauses. Durch vernetzte Kameras, Bewegungsmelder und Tür- und Fenstersensoren erhalten Benutzer Benachrichtigungen bei verdächtigen Aktivitäten. Zugriffskontrollen und Gebäude können auch von Dritten überwacht werden.

4. Haushaltsgeräte und Haushaltsmanagement optimieren

Vernetzte Haushaltsgeräte wie intelligente Kühlschränke, Waschmaschinen oder Staubsaugerroboter können mit dem Internet verbunden werden. Benutzer können diese Geräte über ihre Smartphones steuern, den Betriebsstatus überwachen oder Benachrichtigungen über beendete Aufgaben erhalten. IoT-fähige Geräte können auch die Verbrauchsdaten sammeln, um Ressourcen zu optimieren und die Wartung anmelden.

5. Gesundheits- und Wohlbefinden erhöhen

IoT kann auch bei der Überwachung der Gesundheit und des Wohlbefindens von Personen helfen. Wearables wie Smartwatches oder Fitnesstracker können Daten, wie Herzfrequenz oder Schlafverhalten, sammeln und an das Smart Home-System senden. Dies ermöglicht die Anpassung von Beleuchtung, Temperatur oder Musik, um eine angenehme Atmosphäre zu schaffen.

Diese Einsatzmöglichkeiten zeigen, wie IoT die Funktionalität und den Komfort im Smart Home verbessern kann. Durch die Vernetzung von Geräten und die Integration von Automatisierung und intelligenten Funktionen können Benutzer Energie sparen, die Sicherheit erhöhen und den Wohnkomfort steigern. Es zeigt aber auch, die Gefahren, die George Orwell in seinem berühmten Buch 1984  und Aldous Huxley in Schöne Neue Welt beschrieben haben.

Das Internet der Dinge im Kontext der smarten Fabriken

Das IoT spielt eine entscheidende Rolle bei der Umsetzung von Smart Factories, auch bekannt als Industrie 4.0. Dazu einige Beispiel des IoT in Smart Factories.

1. Überwachung und Steuerung von Anlagen

Durch die Integration von Sensoren in Maschinen und Anlagen können Echtzeitdaten über deren Zustand und Leistung gesammelt werden. Das ermöglicht eine kontinuierliche Überwachung, Fehlererkennung und präventive Wartung. Es ermöglicht die automatisierte Fernüberwachung und -steuerung von Maschinen, was die Effizienz verbessert und Ausfallzeiten reduziert.

2. Lagerbestandsverwaltung automatisieren

Mit Kameras und Sensoren können Lagerbestände automatisch überwacht und verfolgt werden. Dies ermöglicht eine präzise Bestandsverwaltung, eine automatische Nachbestellung bei Bedarf, sowie die Optimierung des Lagerlayouts und der Materialflüsse.

3. Supply Chain Management optimieren und überwachen

Die Transparenz und Effizienz in von Lieferketten werden mit IoT weiter verbessert. Sensoren können mit RFID den Standort von Produkten oder Komponenten verfolgen. Die Temperatur und Feuchtigkeit während des Transports werden mit Sensoren überwacht und liefern Echtzeitinformationen über den Lieferstatus und die Qualität. Dadurch können Schäden, Engpässe oder Verzögerungen frühzeitig erkannt und Maßnahmen ergriffen werden.

4. Qualitätskontrolle durch Überwachung und Steuerung

IoT-Sensoren werden in Fertigungsprozessen eingesetzt, um die Qualität zu überwachen und steuern. Durch die Echtzeitüberwachung können Abweichungen von der Spezifikation sofort erkannt werden.

5. Effizienz und Sicherheit verbessern

Das Internet der Dinge unterstützt bei der Sicherheit am Arbeitsplatz und steigert die Effizienz der Arbeitskräfte. Zum Beispiel können vernetzte Sensoren in Echtzeit Informationen über die Arbeitsbedingungen liefern, um potenzielle Gefahren zu erkennen und rechtzeitig Maßnahmen zu ergreifen. Wearables und vernetzte Geräte können die Zusammenarbeit und Kommunikation zwischen den Mitarbeitern verbessern.

Vorteile des IoT

Die Vorteile des IoT liegen in der Möglichkeit, umfassende Daten aus der physischen Welt zu sammeln und zu nutzen, um fundierte Entscheidungen zu treffen, Effizienz zu steigern, Kosten zu senken, neue Dienstleistungen zu entwickeln und das tägliche Leben zu verbessern.

Nachteile von IoT

Nachteile durch IoT sind noch zu lösende Probleme, wie die Sicherheit und den Datenschutz der gesammelten Daten. Auch die Wartungs- und Updatemöglichkeit bei kostengünstigen IoT Geräten, sowie bei der Interoperabilität und Skalierbarkeit von IoT-Systemen sind teilweise ungelöst.

Fazit

Die Einsatzmöglichkeiten des Internet der Dinge in smarten Fabriken zeigen, wie die Flexibilität und Anpassungsfähigkeit in der Fertigung verbessern kann. Durch die Integration von IoT in die industrielle Automatisierung können Unternehmen Wettbewerbsvorteile erzielen und auf die sich ändernden Anforderungen des Marktes reagieren. Es gibt aber wachsende ungelöste Probleme, auf die bereits George Orwell in seinem Buch 1984  und Aldous Huxley in Schöne Neue Welt und viele weitere Autoren hingewiesen haben.

 

siehe auch Smart City NEOM

 

Der Blackbox Test und der Whitebox Test

Der Blackbox-Test und der Whitebox-Test dienen dazu, die Qualität und Zuverlässigkeit von Software- und Systemlösungen sicherzustellen. Die Tests decken verschiedene Aspekte wie Funktionalität, Benutzerfreundlichkeit, Zuverlässigkeit und Sicherheit ab. Sie werden von Anwendungsentwicklern, Systemintegratoren und weiteren Berufen in der IT Sparte eingesetzt.

Der Blackbox Test

Der Blackbox-Test wird auch manchmal als Black-Box-Test beschrieben und ist ein Testverfahren, bei dem die interne Struktur oder das Design des zu testenden Systems nicht bekannt ist oder nicht berücksichtigt wird. Der Tester betrachtet das System als eine „Blackbox“, bei der er nur die Eingaben (Input) und die Ausgaben (Output) kennt. Der Fokus liegt auf der Überprüfung der funktionalen Anforderungen des Systems, wie z. B. ob es die erwarteten Ergebnisse liefert und ob es korrekt mit verschiedenen Eingabeparametern umgeht. Der Tester kann verschiedene Techniken wie Äquivalenzklassenbildung, Grenzwertanalyse, Zustandsübergangstests und zufällige Tests verwenden, um die Wirksamkeit des Systems zu überprüfen. Der Blackbox-Test ermöglicht es, das System aus Sicht des Endbenutzers zu bewerten und kann unabhängig von der internen Implementierung des Systems durchgeführt werden.

Vorteile des Blackbox-Tests

  • Der Blackbox-Test stellt sicher, dass das System den Anforderungen und Erwartungen der Benutzer entspricht.
  • Der Blackbox-Test kann unabhängig von der internen Implementierung durchgeführt werden.
  • Durch den Blackbox-Test können Muster von Fehlern und unerwartetem Verhalten erkannt werden.

Nachteile des Blackbox-Tests

  • Der Blackbox-Test kann bestimmte interne Codepfade oder -bereiche nicht ausreichend testen.
  • Die Ursache von Fehlern kann aufgrund fehlenden Zugangs zur internen Implementierung schwierig zu identifizieren sein.
  • Der Blackbox-Test bezieht sich nicht auf die interne Effizienz oder Optimierung des Codes.

Der Whitebox Test

Der Whitebox-Test wird manchmal als White-Box-Test beschrieben und ist ein Testverfahren, bei dem der Tester Einblick in die interne Struktur, sowie in das Design des zu testenden Systems hat. Der Tester analysiert den Quellcode, die Algorithmen, die Datenstrukturen und andere technische Aspekte des Systems, um Tests zu erstellen, die auf diesen Informationen basieren. Der Whitebox-Test konzentriert sich sowohl auf die Überprüfung der funktionalen Anforderungen als auch auf die strukturelle Abdeckung des Codes. Es werden Techniken wie Pfadabdeckung, Anweisungsabdeckung, Zweigabdeckung und Bedingungsabdeckung verwendet, um sicherzustellen, dass alle möglichen Pfade und Szenarien im Code getestet werden. Der Whitebox-Test wird oft von Entwicklern durchgeführt, um sicherzustellen, dass der Code richtig implementiert ist und potenzielle Fehler und Schwachstellen identifiziert werden.

Vorteile des Whitebox-Tests

  • Der Whitebox-Test ermöglicht eine detaillierte Überprüfung des Codes und identifiziert potenzielle Fehler auf algorithmischer oder struktureller Ebene.
  • Durch den direkten Zugriff auf den Quellcode kann der Whitebox-Test eine umfassende Abdeckung der Code-Pfade und Szenarien erreichen.
  • Der Whitebox-Test ermöglicht es, ineffiziente Codebereiche zu erkennen und zu optimieren, um die Gesamtleistung des Systems zu verbessern.

Nachteile des Whitebox-Tests

  • Der Whitebox-Test erfordert Kenntnisse über die interne Implementierung, was zu Einschränkungen führen kann, wenn der Quellcode nicht verfügbar oder komplex ist.
  • Der Whitebox-Test fokussiert sich stark auf die interne Logik und kann die Perspektive eines Endbenutzers oder externe Schnittstellen möglicherweise nicht vollständig berücksichtigen.
  • Der Whitebox-Test erfordert tiefgreifende Kenntnisse der internen Struktur und erfordert mehr Zeit und Ressourcen im Vergleich zum Blackbox-Test.

Fazit

Der Blackbox-Test ermöglicht eine unabhängige Bewertung der funktionalen Anforderungen aus Benutzersicht, während der Whitebox-Test eine detaillierte Überprüfung der internen Implementierung und eine umfassendere Testabdeckung bietet. Beide Testarten sind wichtige Bestandteile der Qualitätssicherung.

 

 

Continuous Integration und Deployment – CI/CD

Softwareentwicklung geschieht vielfältig und CI/CD spielt bei Anwendungsentwicklern eine wichtige Rolle. Continuous Integration und Deployment (CI/CD) ist ein Prozess in der Softwareentwicklung. So werden Änderungen an einer Anwendung schnell und effizient in die Produktion zu überführt. Dies geschieht durch eine kontinuierliche Integration von Code-Änderungen und Tests, sowie eine automatisierte Bereitstellung von Software-Updates.

In der traditionellen Softwareentwicklung erfolgt die Integration von Code-Änderungen oft erst am Ende des Entwicklungsprozesses. Dies führt oft zu Problemen bei der Integration, da die einzelnen Komponenten der Anwendung nicht richtig miteinander funktionieren. Durch den Einsatz von CI/CD werden Code-Änderungen hingegen kontinuierlich und automatisiert in die Anwendung integriert und getestet.

Continuous Integration (CI)

Continuous Integration (CI) bezieht sich auf den Prozess der kontinuierlichen Integration von Code-Änderungen in ein zentrales Repository. Dabei werden alle Änderungen automatisch gebaut und getestet. So wird sichergestellt, dass sich die Änderungen problemlos in die bestehende Codebasis integrieren lassen. Dadurch können Probleme frühzeitig erkannt und behoben werden.

Continuous Deployment (CD)

Continuous Deployment (CD) geht noch einen Schritt weiter als CI. Es benutzt  Prozesse zur automatisierten Bereitstellung von Anwendungs-Updates. Dabei wird der Code automatisch auf die Produktionsumgebung übertragen und in Betrieb genommen, nachdem er erfolgreich getestet wurde. Dies ermöglicht eine schnelle und effiziente Bereitstellung von Software-Updates. Ausfallzeiten werden minimiert.

Durch den Einsatz von CI/CD können Entwickler die Qualität ihrer Anwendungen verbessern, die Entwicklungszeit verkürzen und die Auslieferung von Software-Updates beschleunigen. Dabei ist es wichtig, dass die Entwickler regelmäßig Änderungen am Code vornehmen und diese Änderungen automatisiert testen. Durch die kontinuierliche Integration und Bereitstellung von Code-Änderungen wird sichergestellt, dass die Anwendung zu jeder Zeit stabil und funktionsfähig bleibt.

Fazit

Zusammenfassend ist Continuous Integration und Deployment ein wichtiger Bestandteil der modernen Softwareentwicklung. Es ermöglicht eine schnelle, sowie effiziente Bereitstellung von Software-Updates. Es hilft Unternehmen, ihre Anwendungen schneller und mit höherer Qualität auf den Markt zu bringen.

 

Die Six Sigma Methodik im Überblick

Die Six Sigma Methodik wurde 1979 von Motorola entwickelt und dient der Qualitätsverbesserung bei vorhandenen Produkten oder Dienstleistungen. Dabei werden die Methoden DMAIC, DFACE und DMADV eingesetzt. Dazu wird das statistische Qualitätsmanagement eingesetzt. Dazu haben Genichi Taguchi und William Edwards Deming große Beiträge geleistet.

So hat  der japanische Ingenieur Gen’ichi Taguchi die nach Ihm benannte Taguchi-Methode entwickelt, bei der Prozesse, Produkte und Systeme so robust wie möglich gestaltet werden. Es ist heute eine der Methoden, die bei Six Sigma angewandt werden.

Zur gleichen Zeit entwickelte der amerikanische Ingenieur William Edwards Deming die prozessorientierte Sicht und den Einsatz von Statistik im Qualitätsmanagement. Seine Erkenntnisse sind auch heute in Qualitätsnormen und in der Lehre im Einsatz. So nutzen viele Menschen die PDCA Methode.

DMAIC

DMAIC ist eine sich wiederholende Methode, die aus fünf Schritten besteht. Die fünf Schritte sind Define, Measure, Analyze, Improve und Control. Mit DMAIC werden Probleme in bestehenden Prozessen und Produkten identifiziert, analysiert und gelöst.

DFACE

Die DFACE Methode ist eine Erweiterung von DMAIC. Sie betrachtet zusätzlich die zum üblichen Vorgehen bestehenden Chancen und  Risiken des Prozesses (Failure Mode and Effects Analysis, FMEA), sowie identifiziert DFACE die Anforderungen der Stakeholder (Customer Expectations).

DMADV

DMADV ist eine weitere Methode, die aus fünf Schritten besteht. Hier gibt es die Schritte Define, Measure, Analyze, Design, Verify, um einen neuen Prozess mit großer Leistung und Zuverlässigkeit zu entwerfen und umzusetzen. Im Gegensatz zu DMAIC liegt der Fokus auf der Prozessneugestaltung.

Mindestanforderung an ein Qualitätsmanagement System

Qualitätsmanagement

Qualität ist die Erfüllung der Anforderungen des Kunden. Bei vielen qualitätsbewussten Unternehmen wird dazu als Standard die Norm EN ISO 9000ff eingesetzt.

Mindestanforderungen an ein Qualitätsmanagement System

  • Kundenorientierung
  • Einbeziehung der beteiligten Personen
  • Prozessorientierter Ansatz
  • Kontinuierlicher Verbesserungsprozess (KVP)
  • Am System orientiertes Management Konzept
  • Lieferantenbeziehung mit Win-Win Nutzen
  • Liegt in der Verantwortung der Führung

Unternehmen, die aktiv Qualitätsmanagement betreiben, haben ein besseres Image und gesicherte Prozesse, weil regelmäßige Audits ein hohes Qualitätsniveau sicherstellen. Dadurch erhöhen sich die Chancen bei der Gewinnung von Aufträgen.

 

Das Pareto Diagramm ein Werkzeug des Qualitätsmanagement

Beim Qualitätsmanagement ist es wichtig, dass man sich auf die Hauptprobleme konzentriert. Eine gute Unterstützung liefert das Pareto Diagramm, dass das Pareto Prinzip nutzt. Dazu wird die relative Häufigkeit von Problemen in einem Balkendiagramm dargestellt.

Prozess zur Nutzung des Pareto Diagramms

  1. Festlegen, welches Problem analysiert werden soll
  2. Brainstorming anhand von Daten über Probleme oder Ursachen
  3. Sinnvolle Messgrößen ermitteln
  4. Den Untersuchungszeitraum festlegen
  5. Daten für die Untersuchung sammeln oder vorhandene Daten ermitteln
  6. Vergleich der relativen Häufigkeit jeder Problem Kategorie
  7. Kategorien in der horizontalen Achse eintragen
  8. Die kumulierten Prozentwerte der Problemkategorien eintragen
  9. Zum Abschluss die Ergebnisse analysieren und interpretieren

Beispiel einer Auswertung mit dem Pareto Diagramm

blankDas Ergebnis zeigt, dass mit der Beseitigung der zwei größten Fehler eine Fehlerreduktion von fast 80% erreicht wird. Durch die Beseitigung der Fehler „Kabelbruch“ und „Messfehler“ lässt sich die Qualität in kurzer Zeit wesentlich steigern.

Fazit:

Das Paretoprinzip unterstützt eine schnelle und effektive Steigerung der Qualität eines Produkts oder einer Dienstleistung. Es ist ein nützliches Werkzeug aus der Werkzeugkiste von Six Sigma.

Qualitätsanforderungen an Software

Standardsoftware wird nach unternehmensinternen Qualitätsrichtlinien programmiert und verkauft.
Wie ist das aber bei individuell erstellter Software?

Es gibt allgemeine Qualitätsrichtlinien, die aber vor der Auftragserteilung festgelegt sein sollten. Denn es gilt:

„Qualität ist die Erfüllung der Kundenanforderungen.“

8 Kriterien für Qualität bei Software Entwicklung

Es gibt wichtige Eigenschaften, die bei der Softwareentwicklung eine tragende Rolle spielen. Denn schließlich soll die Software während der Nutzungsdauer problemlos und kostengünstig eingesetzt werden können.

Benutzerfreundliche Bedienung

Ein Programm oder eine App sollen einfach zu bedienen sein. der Anwender soll möglichst ohne Hilfe zum Erfolg kommen.

Unempfindlich gegen Fehler

Eingabefehler sollen abgefangen werden, Fehlbedienung nicht möglich sein.

Integrität und Sicherheit

Die Daten und das System sollen gegen unberechtigte Zugriffe und Manipulation geschützt sein.

Korrekte Funktion

Bei der Eingabe, Verarbeitung und Ausgabe dürfen keine Fehler auftreten. Bei gleichen Eingeben muss stets das gleiche Ergebnis erscheinen.

Portable Verwendung

Die Software soll auf anderen Systemen nutzbar sein.

Überprüfbarkeit

Bei der Abnahme der Software soll der Prüfungsaufwand gering sein.

Kompatibel zu anderen Anwendungen

Die Software soll einfach mit weiterer Software verbunden werden können.

Erweiterbare und wiederverwendbare Eigenschaften

Die Software soll leicht mit neuer Funktionalität ausgestattet und vorhandene Funktionen erweitert werden können.

Fazit:

Software Qualität ist wichtig und entscheidet mit, wie die Nutzung im beruflichen Alltag stattfindet. Gerade bei den Projekten Industrie 4.0 und der zunehmenden Digitalisierung in allen beruflichen Bereichen ist fehlerfreie, hochwertige Software eine Basisvoraussetzung.

Unternehmensprozesse im Zeitalter von Industrie 4.0

Unternehmen sind ein Teil der Privatwirtschaft und dem stetigen Wandel in der Natur unterworfen. Die Anpassung gelingt einigen Unternehmen sehr gut und anderen weniger gut. Im Zeitalter der elektronischen Datenverarbeitung haben sich Systeme entwickelt, die den Wandel zu Industrie 4.0 mit KI begünstigen. Die nachfolgende Auflistung zeigt im Überblick Einige von Unternehmen eingesetzte Datenverarbeitungssysteme.

Unternehmensweite Planung bei Industrie 4.0

Unternehmensweite Planung bei Industrie 4.0
Unternehmensweite Planung bei Industrie 4.0

Enterprise Ressource Planning (ERP) ist die unternehmensweite Planung von Ressourcen des gesamten Unternehmens. Dabei wird bei Industrie 4.0 immer mehr KI genutzt werden, um den Bearbeitern und Entscheidern zeitnah, umfassende Auswertungen und Lösungen anzubieten. Die Entscheidungen fällt jetzt noch der Mensch. Aber dies wird sich in der Zukunft ändern. Denn der Mensch wird die Koexistenz und Handlungsfähigkeit der KI als gleichberechtigter Partner akzeptieren müssen. Das verändert die Wirtschaftssysteme.

Je nach Branche sind die ERP Systeme unterschiedlich aufgebaut. einige Unternehmen leisten sich individuelle angepasste ERP Systeme. Andere nutzen Vanilla Lösungen. Eine Vanilla Lösung stellt die standardisierte, nicht angepasste Anwendung „out of the box“ dar. Diese hat den Vorteil, das Versions-Upgrades einfach und kostengünstig möglich sind. Dafür werden bei diesen Unternehmen in vielen Bereichen Standardprozesse genutzt.

Umfassende Kommunikation der IT-Systeme ist erforderlich

Über Schnittstellen erfolgt die Kommunikation der Subsysteme mit einer einheitlichen Sprache zum Datenaustausch. Meist wird dafür Extended Markup Language (XML) genutzt. Die in großen Mengen vorhandenen Daten werden in leistungsfähigen Datenbanken vorgehalten. Auch hier wird immer mehr KI eingesetzt und unterstützt die Prozesse. So werden sich in der multipolaren Welt diese Systeme unterscheiden und das entspricht der von der Natur gewünschten Vielfalt und ermöglicht die Zukunftsfähigkeit von Unternehmen, Mitarbeitern und der KI.

Die PDCA Methode von William Edwards Deming

Dr. William Edwards Deming, der Mann der die Welt veränderte und den kaum einer kennt. Dr. Deming war ein Guru des Qualitätsmanagements, der neue Wege aufzeigte und umsetzte. Seine Methoden machten Toyota zum langjährigen Weltmarktführer im Automobilbau. Die US Autoindustrie wurde in den 80er Jahren durch mangelhafte Qualität und „This is good enough“ fast ruiniert.

Eine von Dr. Demings  grundlegenden Methoden ist die PDCA Methode.

PDCA Methode
Die Nutzung gestaltet sich in vier Schritten. Diese werden beliebig oft wiederholt.

  1. Plan: Plane den Vorgang
  2. Do: Führe den Vorgang wie geplant aus
  3. Check: Prüfe das Ergebnis, z.B.  mit einem Soll-Ist Vergleich
  4. Act: Handle und gestalte den Vorgang mit den neuen Erkentnissen um

Sie werden feststellen, dass sich ihr Produkt oder ihre Dienstleistung stetig verbessern.