VUCA und die Herausforderung der IT

VUCA in der IT stellt Herausforderungen und Chancen am Beispiel einer Cloud-Migration

Die IT-Welt ist ein dynamisches, oft chaotisches Umfeld, das stark von VUCA geprägt ist.

VUCA steht für

  • Volatility (Volatilität)
  • Uncertainty (Unsicherheit)
  • Complexity (Komplexität)
  • Ambiguity (Mehrdeutigkeit)

Diese Begriffe beschreiben die Herausforderungen moderner IT-Landschaften, insbesondere in einer Ära, die von Digitalisierung, Automatisierung und globaler Vernetzung geprägt ist. Um zu verdeutlichen, wie VUCA die IT beeinflusst, betrachten wir die Cloud-Migration eines mittelständischen Unternehmens.

Volatilität: Schnelle Veränderungen

In der IT sind Technologien, Marktanforderungen und regulatorische Rahmenbedingungen ständig im Wandel. Bei der Entscheidung, von einer On-Premises-Infrastruktur zu einer Cloud-Lösung zu wechseln, muss das Unternehmen auf plötzliche Veränderungen reagieren. Ein Beispiel könnte die Ankündigung eines Cloud-Anbieters sein, eine bestimmte Technologie oder einen Service einzustellen. Diese Volatilität erfordert schnelle Entscheidungen und flexible Anpassungen, um den Geschäftsbetrieb nicht zu gefährden.

Beispiel: Während der Cloud-Migrationsphase kündigt der bevorzugte Anbieter neue Preisstrukturen an, die die Betriebskosten erheblich erhöhen könnten. Das Unternehmen muss nun alternative Anbieter evaluieren oder die Projektkosten neu kalkulieren.

Unsicherheit: Unvorhersehbare Ergebnisse

Die IT-Projekte sind häufig mit Unsicherheiten behaftet. Bei der Cloud-Migration können unterschiedliche Fragen aufkommen, wie

  • Werden die neuen Systeme reibungslos funktionieren?
  • Wird die Performance ausreichen?

Solche Unsicherheiten erschweren die Planung und die Definition klarer Projektziele.

Beispiel: Trotz umfangreicher Tests stellt sich nach der Migration heraus, dass eine unternehmenskritische Anwendung in der neuen Cloud-Umgebung langsamer läuft. Die IT-Abteilung muss ad hoc nach Lösungen suchen, ohne genau zu wissen, wie lange dies dauern wird.

Komplexität: Vielschichtige Abhängigkeiten

Die IT-Systeme sind heute hochgradig komplex und miteinander vernetzt. Bei der Cloud-Migration müssen nicht nur Daten und Anwendungen verschoben werden, sondern auch Sicherheitskonzepte, Netzwerkkonfigurationen und Compliance-Vorgaben berücksichtigt werden.

Beispiel: Während der Migration entdecken die IT-Teams, dass bestimmte ältere Anwendungen nicht mit der Cloud kompatibel sind. Um die Migration erfolgreich abzuschließen, müssen entweder die Anwendungen modernisiert oder alternative Lösungen entwickelt werden – eine komplexe Herausforderung.

Mehrdeutigkeit: Unklare Rahmenbedingungen

Mehrdeutigkeit entsteht, wenn Informationen oder Anweisungen nicht eindeutig sind. In der Cloud-Migration zeigt sich dies beispielsweise bei der Interpretation von Service-Level-Agreements (SLAs) oder Datenschutzanforderungen.

Beispiel: Der Cloud-Anbieter garantiert eine Verfügbarkeit von 99,9 %, was zunächst ausreichend klingt. Doch bei genauerer Analyse stellt sich heraus, dass dies nur für bestimmte Regionen gilt, die nicht mit den Anforderungen des Unternehmens übereinstimmen. Diese Mehrdeutigkeit kann zu Fehlentscheidungen führen.

Strategien zur Bewältigung von VUCA in der IT

Um mit VUCA effektiv umzugehen, gibt es bewährte Ansätze.

  • Agilität fördern: Ein agiles Projektmanagement ermöglicht schnelle Anpassungen an volatile Bedingungen.
  • Transparenz schaffen: Klare Kommunikation und umfassende Risikoanalysen können Unsicherheiten reduzieren.
  • Komplexität managen: Der Einsatz von spezialisierten Tools, wie automatisierten Monitoring-Systemen, hilft, den Überblick zu behalten.
  • Klarheit durch Schulungen: Mitarbeiter müssen regelmäßig geschult werden, um Mehrdeutigkeit in technischen und rechtlichen Fragen zu minimieren.

Fazit

Das Beispiel der Cloud-Migration zeigt, wie VUCA die IT-Welt prägt und welche Herausforderungen Unternehmen meistern müssen. Mit den richtigen Strategien können jedoch aus Unsicherheiten Chancen werden. Die Fähigkeit, schnell und flexibel auf Veränderungen zu reagieren, ist ein entscheidender Erfolgsfaktor in der digitalen Transformation. VUCA mag komplex erscheinen, doch es bietet auch die Möglichkeit, innovative Lösungen zu entwickeln und Wettbewerbsvorteile zu schaffen.

Netzneutralität des Internet in den USA aufgehoben

Das Urteil zur Netzneutralität des United States Court of Appeals for the Sixth Circuit vom 2. Januar 2025 bestätigt die Entscheidung der Federal Communications Commission (FCC), die Netzneutralität in den USA aufzuheben.

Die Netzneutralität gewährleistet seit Jahrzehnten, dass alle Daten im Internet gleich behandelt werden, unabhängig von Inhalt, Absender oder Empfänger. Durch die Aufhebung dieser Regelung können US-Internetdienstanbieter nun bestimmten Datenverkehr priorisieren oder verlangsamen oder mit Geofencing eingrenzen.

Mögliche Auswirkungen auf Nutzer von US-Diensten in Deutschland

  1. Änderungen bei US-Diensten: US-basierte Online-Dienste könnten ihre Datenübertragungsstrategien anpassen, um in den USA bevorzugte Behandlung zu erhalten. Dies könnte indirekt die Qualität oder Geschwindigkeit dieser Dienste für Nutzer in Deutschland beeinflussen.
  2. Wettbewerbsdruck auf europäische Anbieter: Sollten US-Dienste durch die neuen Regelungen Wettbewerbsvorteile erlangen, könnten europäische Anbieter unter Druck geraten, ähnliche Praktiken zu fordern, was die Debatte über die Netzneutralität in Europa beeinflussen könnte.
  3. Regulatorische Diskussionen in Europa: Obwohl die Netzneutralität in der EU gesetzlich verankert ist, könnten die Entwicklungen in den USA Diskussionen über die zukünftige Ausgestaltung der Netzneutralität in Europa anregen.


    Es ist jedoch wichtig zu betonen, dass die rechtlichen Rahmenbedingungen in Deutschland eigenständig sind. Die Aufhebung der Netzneutralität in den USA hat keine direkte rechtliche Wirkung, aber eine starke politische Wirkung auf auf die Regulierung im US-abhängigen Deutschland. Daher werden langfristig technische und marktbezogene Entwicklungen, die aus der US-Entscheidung resultieren, auch hierzulande spürbar werden.

Technische Auswirkungen

  1. Verzögerungen im Datenfluss
    • US-Serverpriorisierung: Daten von US-Diensten, die in den USA gehostet werden, könnten bevorzugt behandelt werden, während andere Daten (z. B. aus Deutschland oder der EU) langsamer übertragen werden.
    • Erhöhter Ping und Latenz: Insbesondere bei Echtzeitanwendungen wie Online-Gaming oder Videoanrufen könnte es zu einer schlechteren Performance kommen, wenn diese Daten aus den USA langsamer bereitgestellt werden.
  2. Reduzierte Dienstqualität
    • Anbieter könnten gezwungen werden, für eine bevorzugte Behandlung ihrer Daten innerhalb der USA zusätzliche Gebühren an ISPs zu zahlen. Diese Kosten könnten auf Nutzer in Deutschland umgelegt werden, was zu höheren Preisen oder eingeschränkten Diensten führen könnte.
    • Begrenzte Verfügbarkeit: Einige US-Dienste könnten für europäische Nutzer in der Qualität eingeschränkt sein, da ISPs die Datenübertragung bewusst drosseln.
  3. Technische Umgehungen
    • VPN-Nutzung: Um Einschränkungen durch US-ISPs zu umgehen, könnten mehr Nutzer auf VPN-Dienste zurückgreifen, was zusätzliche Latenzen und Performanceeinbußen verursachen könnte.

Organisatorische Auswirkungen

  1. Geänderte Preisstrukturen
    • US-Unternehmen könnten gezwungen sein, neue Kostenmodelle einzuführen, um bevorzugte Datenübertragungen sicherzustellen. Diese Kosten könnten als Abonnementgebühren oder Preiserhöhungen an Nutzer in Deutschland weitergegeben werden.
  2. Serviceänderungen bei US-Anbietern
    • Anbieter könnten bestimmte Dienste oder Inhalte für Nutzer in Europa einschränken, um Kosten zu reduzieren. Dies könnte insbesondere für kleinere Anbieter relevant sein, die sich keine bevorzugten Datenübertragungsrechte leisten können.
  3. Beeinträchtigung der Datenintegrität
    • Unterschiedliche Priorisierung: Inhalte könnten durch US-basierte ISPs verändert oder in ihrer Reihenfolge priorisiert werden, was sich auf die Wahrnehmung und Nutzung von Diensten auswirken könnte.
  4. Komplexere regulatorische Abstimmungen
    • Unternehmen, die sowohl in den USA als auch in der EU operieren, müssten möglicherweise unterschiedliche Strategien entwickeln, um den jeweiligen lokalen Regelungen gerecht zu werden. Dies könnte die Effizienz und den Support für Nutzer in Deutschland beeinträchtigen.

Langfristige Auswirkungen

  1. Marktveränderungen
    • Europäische Anbieter könnten an Marktanteilen gewinnen, wenn US-Dienste schlechter zugänglich oder teurer werden.
    • US-Anbieter könnten ihren Fokus auf lokale Märkte legen, was zu einer geringeren Innovation und Verfügbarkeit für internationale Nutzer führen könnte.
  2. Politischer Druck
    • Die Entwicklungen in den USA könnten europäische Regulierungsbehörden dazu bewegen, ihre bestehenden Regeln zur Netzneutralität zu überprüfen, um sicherzustellen, dass europäische Nutzer nicht indirekt durch US-Entscheidungen benachteiligt werden.

Einfluss auf die Verbreitung von Informationen

  1. Priorisierung von Inhalten durch ISPs
    • Ohne Netzneutralität könnten ISPs in den USA (und potenziell in anderen Ländern, wenn diese Praktiken übernommen werden) Inhalte bevorzugen, die mit staatlichen oder regierungsfreundlichen Narrativen übereinstimmen.
      Unabhängige oder oppositionelle Stimmen könnten benachteiligt werden, da sie nicht für bevorzugte Übertragungsraten zahlen können.
    • Dies könnte eine effektivere Verbreitung von propagandistischen Inhalten und eine gleichzeitige Unterdrückung kritischer Informationen ermöglichen.
  2. Geofencing von Propaganda
    • Inhalte könnten gezielt in bestimmten Regionen priorisiert oder blockiert werden, um die gewünschte Zielgruppe effektiver zu erreichen oder von bestimmten Informationen abzuschneiden.

Auswirkungen auf Überwachungs- und Datenzugriffsmechanismen

  1. Einfacherer Zugriff auf Daten
    • Ohne Netzneutralität könnten ISPs verpflichtet oder ermutigt werden, Überwachungsdaten direkt mit Regierungsstellen zu teilen. Dies könnte dazu führen, dass Regierungen gezielt Inhalte beobachten und manipulieren können, um die öffentliche Meinung zu beeinflussen.
    • Solche Daten könnten auch verwendet werden, um die Wirkung von Propaganda-Kampagnen in Echtzeit zu messen und zu optimieren.
  2. Verhinderung von Verschlüsselungsdiensten
    • ISPs könnten den Zugang zu sicheren und anonymen Kommunikationsdiensten (z. B. Tor, VPNs) drosseln oder blockieren, was es einfacher macht, Propaganda durch ungeschützte Kanäle zu verbreiten und Gegenstimmen zu überwachen.

Fragmentierung der Informationslandschaft

  1. Förderung staatlich geförderter Inhalte
    • Regierungen könnten mit ISPs zusammenarbeiten, um propagandistische Inhalte zu priorisieren, indem sie hohe Gebühren zahlen oder direkte Partnerschaften eingehen.
    • Dies könnte dazu führen, dass Nutzer bevorzugt mit regierungsnahen Informationen konfrontiert werden, während unabhängige oder abweichende Informationen in den Hintergrund treten.
  2. Beeinflussung internationaler Diskurse
    • US-amerikanische Propaganda könnte durch die globale Verbreitung von US-Diensten (z. B. soziale Medien oder Streaming-Plattformen) weiterhin großen Einfluss haben, während Gegenpositionen von anderen Ländern möglicherweise schlechter verbreitet werden.

Auswirkungen auf Deutschland

  1. Import von Mechanismen
    • Wenn solche Praktiken in den USA erfolgreich implementiert werden, könnten sie als Vorbild für ähnliche Maßnahmen in Deutschland oder der EU dienen, insbesondere im Kontext von Desinformation und Informationskontrolle.
  2. Beeinflussung von Allianzen und geopolitischen Interessen
    • Die Aufhebung der Netzneutralität könnte genutzt werden, um gezielt Inhalte zu fördern, die transatlantische Beziehungen stärken oder europäische Bevölkerungen in eine bestimmte Richtung lenken.

Fazit

Die Aufhebung der Netzneutralität in den USA eröffnet theoretisch Möglichkeiten, wie Regierungen – sowohl in den USA als auch im abhängigen Deutschland, gewünschte Inhalte effektiver verbreiten, verschweigen und alternative Meinungen unterdrücken könnten. Dies könnte durch Priorisierung bestimmter Daten, gezielte Überwachung und eine Fragmentierung der Informationslandschaft geschehen. Die konkreten Auswirkungen hängen davon ab, inwiefern staatliche Akteure diese neuen technischen und wirtschaftlichen Möglichkeiten nutzen.

Die Aufhebung der Netzneutralität in den USA könnte für deutsche Nutzer von US-Diensten technische Herausforderungen, wie schlechtere Performance und höhere Preise, Zensur, sowie organisatorische Änderungen, wie Einschränkungen bestimmter Dienste mit sich bringen. Diese Auswirkungen hängen stark davon ab, wie US-Dienstanbieter ihre Strategien anpassen und ob diese Anpassungen global wirken.

Das Ergebnis ist „Teile und Herrsche“, das von den USA gewünscht wird. Das Internet wird zwar weiter existieren, aber seine tragende technologische, sowie weltweite Unterstützung und Nutzung verlieren. Denn der globale Süden wird konkurrierend weitere, zum Internet parallele, abgeschirmte, sowie unabhängige Netzwerke mit besseren Bedingungen betreiben. Diese Netze sind bereits in Teilen fertiggestellt. Dadurch wird der von den USA geführte Westen vor allen wirtschaftlich, sowie technologisch weiter verlieren und sich selbst dadurch weiter vernichten.

Arduino Uno vs. ESP32 und ESP32-S3 – Unterschiede und Gemeinsamkeiten

Die Welt der Mikrocontroller bietet eine breite Palette an Entwicklungsboards, die jeweils spezifische Stärken und Schwächen aufweisen. Der Arduino Uno, der als Klassiker in der Maker-Szene gilt, unterscheidet sich in vielerlei Hinsicht von moderneren Boards wie dem ESP32 und dessen Variante ESP32-S3. In diesem Artikel vergleichen wir die technischen Spezifikationen und Einsatzmöglichkeiten dieser drei Mikrocontroller und zeigen ihre Gemeinsamkeiten auf.

Technische Unterschiede der Microcontroller

1. Prozessor und Leistung

  • Arduino Uno
    • Prozessor: 8-Bit ATmega328P
    • Taktfrequenz: 16 MHz
    • RAM: 2 KB
    • Flash-Speicher: 32 KB
  • ESP32
    • Prozessor: Dual-Core 32-Bit Xtensa LX6
    • Taktfrequenz: bis zu 240 MHz
    • RAM: ca. 520 KB SRAM, zusätzlicher PSRAM bei manchen Modellen
    • Flash-Speicher: Variiert, typischerweise 4 MB bis 16 MB
  • ESP32-S3
    • Prozessor: Dual-Core 32-Bit Xtensa LX7
    • Taktfrequenz: bis zu 240 MHz
    • RAM: 512 KB SRAM + bis zu 8 MB PSRAM
    • Flash-Speicher: 4 MB bis 16 MB

Der ESP32 und der ESP32-S3 übertreffen den Arduino Uno bei Weitem in Bezug auf Leistung und Speicherkapazität, was sie für rechenintensive Anwendungen geeignet macht.

2. Konnektivität

  • Arduino Uno
    • Keine integrierte Wi-Fi- oder Bluetooth-Unterstützung
    • Benötigt externe Module für drahtlose Kommunikation
  • ESP32
    • Integriertes Wi-Fi (2,4 GHz) und je nach Version Bluetooth (Classic und BLE)
  • ESP32-S3
    • Integriertes Wi-Fi (2,4 GHz) und Bluetooth LE
    • Verbesserte BLE-Funktionen, insbesondere für IoT-Anwendungen

Die in vielen Varianten existierenen Microcontroller ESP32 und der ESP32-S3 bieten von Haus aus drahtlose Kommunikationsmöglichkeiten, die den Arduino Uno ohne externe Module nicht hat.

3. GPIOs und Peripheriegeräte

  • Arduino Uno
    • 14 digitale I/O-Pins (6 davon PWM-fähig)
    • 6 analoge Eingänge
  • ESP32
    • Bis zu 36 GPIO-Pins (je nach Modell)
    • PWM-Unterstützung, ADC, DAC, I2C, SPI, UART
    • Integrierter Touch-Sensor und Hall-Sensor
  • ESP32-S3
    • Ähnliche GPIO-Anzahl wie der ESP32
    • Verbesserte Unterstützung für maschinelles Lernen und Vektoroperationen

4. Stromverbrauch

  • Arduino Uno
    Relativ geringer Stromverbrauch, jedoch nicht optimiert für stromsparende Anwendungen.
  • ESP32
    Energiesparmodi (z. B. Deep Sleep) für IoT-Anwendungen.
  • ESP32-S3
    Noch effizienter als der ESP32 bei Low-Power-Anwendungen.

Gemeinsamkeiten der Microcontroller

  1. Entwicklungsumgebung
    Alle drei Boards können mit der Arduino IDE programmiert werden, was sie für Einsteiger und Fortgeschrittene gleichermaßen zugänglich macht.
  2. GPIO-Unterstützung
    Obwohl sich die Anzahl und Funktionen der Pins unterscheiden, bieten alle Boards flexible Möglichkeiten mit Schnittstellen für die Ansteuerung von LEDs, Motoren und anderen Peripheriegeräten.
  3. Community-Support
    Sowohl der Arduino Uno, als auch der ESP32 und ESP32-S3 verfügen über große Communitys mit einer Fülle von Tutorials, Bibliotheken und Projekten.
  4. Einsatzbereich
    Alle drei Mikrocontroller können in IoT-, Automatisierungs- und Elektronikprojekten eingesetzt werden, wobei der ESP32 und ESP32-S3 deutlich leistungsfähiger sind. Der Arduino Uno ist mehr für den Einstieg zum Internet der Dinge (IoT) nutzbar.

Fazit

Der Arduino Uno eignet sich hervorragend für einfache Projekte, bei denen keine drahtlose Kommunikation erforderlich ist. Der ESP32 und insbesondere der ESP32-S3 bieten jedoch deutlich mehr Rechenleistung, Konnektivität und Speicher, wodurch sie ideal für komplexere Anwendungen wie IoT, maschinelles Lernen und datenintensive Projekte sind.

Wer Wert auf Einfachheit und schnelle Ergebnisse legt, ist mit dem Arduino Uno gut beraten. Für Entwickler, die fortschrittliche Funktionen wie Wi-Fi, Bluetooth und umfangreiche Rechenressourcen benötigen, sind der ESP32 oder ESP32-S3 die bessere Wahl.

Das AIDA Prinzip und der Elevator Pitch

Das AIDA-Prinzip lässt sich hervorragend im betrieblichen Vorschlagswesen, aber auch auf die Vermarktung eines IoT-Produkts mit Microcontrollern anwenden. Dabei spielt der Elevator Pitch eine wichtige Rolle, um in wenigen Sekunden die Aufmerksamkeit der Zielgruppe zu gewinnen und das Interesse an dem Produkt zu wecken. Hier ein Beispiel für eine smarte IoT-Umgebung, z. B. ein DIY-Kit zur Heimautomatisierung.

  1. Attention (Aufmerksamkeit)
    Die Aufmerksamkeit wird durch einen prägnanten Elevator Pitch in Technik-Foren oder sozialen Medien erregt, etwa: „Mit unserem DIY-IoT-Kit verwandeln Sie Ihr Zuhause in ein smartes, energieeffizientes Paradies – in nur 10 Minuten!“ Ergänzt wird dies durch ein animiertes Video, das zeigt, wie der Microcontroller mithilfe von Sensoren eine smarte Beleuchtung steuert, die automatisch auf Tageslicht und Präsenz reagiert.
  2. Interest (Interesse)
    Das Interesse wird geweckt, indem technische Details des Produkts auf der Website oder in einem Blogbeitrag vorgestellt werden. Zum Beispiel wird erklärt, wie einfach die Einrichtung ist, wie verschiedene Geräte miteinander kommunizieren und wie der Microcontroller durch offene Standards wie MQTT oder Zigbee flexibel integriert werden kann.
  3. Desire (Verlangen)
    Das Verlangen wird verstärkt, indem Erfolgsgeschichten von Nutzern gezeigt werden. Beispielsweise teilt ein Maker in einem Video, wie er mit dem DIY-Kit nicht nur Energie gespart, sondern auch sein Zuhause sicherer gemacht hat. Bilder und Videos von realen Anwendungen machen das Produkt greifbar und zeigen die Vorteile.
  4. Action (Handlung)
    Die Handlung wird durch einen Call-to-Action angeregt, wie z. B. einen limitierten Einführungspreis oder ein kostenloses E-Book mit Projektideen für Käufer. Ein „Jetzt bestellen“-Button führt direkt zur Produktseite, während ein Countdown-Timer die Dringlichkeit erhöht.

Fazit

Der Elevator Pitch ergänzt das AIDA-Prinzip perfekt, indem er die Aufmerksamkeit im ersten Schritt kurz und prägnant einfängt. Kombiniert mit den weiteren AIDA-Phasen wird eine schlüssige und wirkungsvolle Marketingstrategie geschaffen, die besonders für technische Produkte wie IoT-Kits mit Microcontrollern geeignet ist.

Binärpräfix und Dezimalpräfix

Binär- und Dezimalpräfixe spielen eine zentrale Rolle in der Technik, um Datenmengen und Speicherkapazitäten genau zu beschreiben. Da Computer auf binären Systemen basieren, ermöglichen Binärpräfixe eine präzise Darstellung von Speichergrößen, die den tatsächlichen Speicher-anforderungen entsprechen. Dezimalpräfixe hingegen folgen dem metrischen System und sind ideal für allgemeine technische Anwendungen, da sie eine einfache Skalierung und Verständlichkeit bieten.

Die Unterscheidung zwischen beiden Präfixarten ist entscheidend, um Missverständnisse zu vermeiden und spezifische Anforderungen in der digitalen Datenverarbeitung und Kommunikation exakt darzustellen. Der Unterschied zwischen Binärpräfixen und Dezimalpräfixen liegt in der Basis, auf der sie beruhen.

Aufbau des Dezimalpräfix

Der Dezimalpräfix basierend auf der Zehnerpotenz und nutzt die Basis 10. Dieses Zahlensystem wird meist in der allgemeinen Technik und bei Datenübertragungsraten verwendet, wie z. B. bei Netzwerkgeschwindigkeiten.

1 kB (Kilobyte) = 10³ Byte = 1000 Byte
1MB (Megabyte) = 10⁶ Byte = 1000 * 1000 Byte
1GB (Gigabyte) = 10⁹ Byte = 1000 * 1000 * 1000 Byte

Aufbau des Binärpräfix

Der Binärpräfix basiert auf der Zweierpotenz und nutzt die Basis 2. Es wird in der Regel bei IT Systemen verwendet, um z.B. Speicherkapazitäten und Arbeitsspeicher von Computern und weiteren IT Geräten anzugeben, da diese Systeme binär organisiert sind.

1 KiB (Kibibyte) = 2¹⁰ Byte = 1024 Byte
1 MiB (Mebibyte) = 2²⁰ Byte = 1024 * 1024 Byte
1 GiB (Gibibyte) = 2³⁰ Byte = 1024 * 1024 * 1024 Byte

(SI) Dezimalpräfix (IEC) Binärpräfix
Byte B 1 Byte B 1
Kilobyte kB 1000=10³ Kibibyte KiB 1024=2¹⁰
Megabyte MB 1000²=10⁶ Mebibyte MiB 1024²=2²⁰
Gigabyte GB 1000³=10⁹ Gibibyte GiB 1024³=2³⁰
Terabyte TB 1000⁴=10¹² Tebibyte TiB 1024⁴=2⁴⁰
Petabyte PB 1000⁵=10¹⁵ Pebibyte PiB 1024⁵=2⁵⁰
Exabyte EB 1000⁶=10¹⁸ Exbibyte EiB 1024⁶=2⁶⁰

SI heißt System International und basiert auf der Maßeinheiten des metrischen Systems.
IEC heißt Internationale Elektrotechnische Kommission und ist die Normierungsorganisation für die Elektrotechnik und Elektronik

Fazit

Binärpräfixe (z. B. KiB, MiB, GiB) sind präzise und basieren auf Zweierpotenzen, die die tatsächliche Speicherkapazität im binären System darstellen. Dezimalpräfixe (z. B. kB, MB, GB) sind standardisiert für allgemeine und technische Anwendungen und basieren auf Zehnerpotenzen.

Die Unterscheidung ist wichtig, um Missverständnisse über die tatsächliche Größe und Leistung von Speichermedien und Übertragungsraten zu vermeiden.

Neuentwicklung des Roboters Atlas von Boston Dynamics

Robotik

Der Roboter Atlas von Boston Dynamics ist eine Neuentwicklung, nach dem man bei dem vorherigen Modell wegen der eingesetzten Hydraulik immer wieder auf Schwierigkeiten gestoßen ist.

Boston Dynamics neues, humanoides Robotermodell Atlas hat jüngst bahnbrechende Entwicklungen durchlaufen, die seine Einsatzmöglichkeiten deutlich in vielen Bereichen erweitern. Im aktuellen Projekt „Atlas Goes Hands-On“ zeigt Atlas erstmals seine Fähigkeiten in der präzisen Nutzung von Greifwerkzeugen und im bimanualen Handhaben, ein entscheidender Fortschritt hin zu einer echten Interaktion mit der Umgebung.

Zudem hat Boston Dynamics im Gegensatz zum vorherigen, hydraulisch betriebenen Modell mit einer vollelektrischen Version des Roboters eine neue Entwicklungsära für das Unternehmen eingeläutet. Sie hat das Ziel, Atlas für reale industrielle Aufgaben vorzubereiten. Hier hinken die USA, wie inzwischen in vielen Bereichen, technologisch China hinterher.

Besonders beeindruckend ist die Nutzererfahrung eines Testers, die zeigt, wie fortgeschritten Atlas im Praxiseinsatz agieren kann. Diese Erfolge gehen einher mit Bemühungen von Boston Dynamics, nachhaltigere Energielösungen zu entwickeln, um den CO₂-Ausstoß zu reduzieren, wie im Beitrag des ehemaligen Formel-1-Chefs über „guilt-free fuel“ verdeutlicht. Diese Innovationen bringen Atlas dem Ziel, echte Aufgaben in Industrie und Alltag zu übernehmen, einen großen Schritt näher und zeigen die Vision von Boston Dynamics für umweltfreundliche und leistungsfähige Robotik. In China hat dagegen bereits die Massenproduktion von ähnlichen Robotern begonnen.

Weitere Details gibt es auf den Webseiten von Boston Dynamics: Atlas Hands-On, Electric New Era, Atlas Challenge und Guilt-Free Fuel.

Weiterentwicklung des Roboter Fourier GR-2

Robotik

Das 2015 gegründete Unternehmen Fourier hat sich der Entwicklung von Robotern verschrieben, die über Geschicklichkeit und Intelligenz für die medizinische Rehabilitation, die wissenschaftliche Forschung und weitere gängige Anwendungen in der realen Welt eingesetzt werden können.

Fourier bietet Robotik-Dienstleistungen für mehr als 2000 Organisationen und Krankenhäuser in mehr als 40 Ländern und Regionen rund um den Globus. Dabei arbeitet Fourier weltweit mit wissenschaftlichen Einrichtungen, wie zum Beispiel die ETH Zürich, Tsinghua University Peking, Carnegie Mellon University und der Simon Fraser University, zusammen.

Roboter Modell Fourier GR-2

Am 26.09.2024 wurde das neue Roboter Modell GR-2 vorgestellt. Ein Jahr Weiterentwicklung steckt in diesem Roboter.

Die neue Plattform unterstützt Frameworks wie NVIDIA Isaac Lab und Mujoco und ermöglicht es Entwicklern, sich auf Innovationen zu konzentrieren, ihre Arbeitsabläufe zu rationalisieren und die Robotikentwicklung zu verbessern.

„GR-2 ist ein großer Schritt in die Zukunft der humanoiden Robotik“, sagt Alex Gu, CEO von Fourier. „Wir arbeiten mit Leidenschaft daran, den intuitivsten verkörperten Agenten für KI zu entwickeln, der es ihr ermöglicht, sich auf eine nie dagewesene Weise mit der physischen Welt auseinanderzusetzen. Fourier freut sich auf Entwickler, Forscher und Unternehmen, die sich uns auf dieser unglaublichen Reise anschließen möchten.“

Die GRx-Serie von Fourier setzt mit ihrem Schwerpunkt auf der KI-Integration neue Maßstäbe in der humanoiden Robotik. Im Hinblick auf die künftige Entwicklung humanoider Roboter skizziert das Unternehmen sechs Schlüsselbereiche für die Entwicklung – Fortbewegung, Manipulation, Kognition, bionisches Design, Benutzererfahrung und kommerzielle Verwertbarkeit. Die Einführung des GR-2 markiert einen neuen Schritt in Richtung zukünftiger Durchbrüche in der Mensch-Roboter-Kollaboration.

Der GR-2 von Fourier ist ein humanoider Roboter, der speziell für fortschrittliche Anwendungen in der Forschung und in der Industrie entwickelt wurde. Er besitzt 12 Freiheitsgrade, was ihm eine hohe Beweglichkeit verleiht. Besonders hervorzuheben sind seine aktiven Hände, die komplexe Greifbewegungen ermöglichen, sowie die präzise Steuerung durch VR-Technologien. Die Fähigkeit des GR-2, mit FSA-Aktuatoren zu arbeiten, gibt ihm die Flexibilität, dynamische Bewegungen auszuführen, die besonders für anspruchsvolle Aufgaben in verschiedenen Umgebungen benötigt werden.

Ein entscheidender Vorteil des GR-2 ist die Lead-Through-Programmierung, die es Benutzern ermöglicht, dem Roboter Bewegungsabläufe durch direkte Demonstration beizubringen. Dies macht den Roboter besonders benutzerfreundlich und reduziert die Notwendigkeit von komplexen Programmierungen. Durch seine fortschrittliche Sensorik ist der GR-2 in der Lage, präzise auf seine Umgebung zu reagieren und somit sowohl sicher als auch effizient zu arbeiten.

Seine kompakte Bauweise macht den GR-2 besonders vielseitig einsetzbar. Er kann in engen industriellen Umgebungen eingesetzt werden und bietet durch seine aktiven Hände und präzise Steuerung zahlreiche Einsatzmöglichkeiten, von der Montage kleiner Teile bis hin zur Durchführung von Forschungsaufgaben, die exakte Bewegungsabläufe erfordern. Insbesondere in Bereichen wie der Produktion, der Logistik oder der medizinischen Forschung kann der GR-2 wertvolle Unterstützung bieten.

Vorteile des Fourier GR-2

Im Vergleich zu anderen humanoiden Robotern zeichnet sich der GR-2 durch seine modulare Struktur und seine fortschrittliche Bewegungsfähigkeit aus. Er ist in der Lage, nicht nur statische Aufgaben, sondern auch dynamische Interaktionen in Echtzeit auszuführen. Diese Fähigkeiten machen ihn zu einer wertvollen Ressource in Laboren und industriellen Anwendungen, wo Präzision und Anpassungsfähigkeit gefragt sind.

Vergleichbare Produkte in Europa

Ein ähnlicher Roboter in Europa ist EVE von 1X Robotics (ehemals Halodi Robotics), der ebenfalls für Alltags- und industrielle Anwendungen entwickelt wurde. EVE ist auf Sicherheit ausgelegt und kann in Umgebungen arbeiten, in denen Menschen und Maschinen kooperieren.

PAL Robotics aus Spanien bietet ebenfalls humanoide Roboter wie TALOS und TIAGo, die in verschiedenen industriellen und kommerziellen Bereichen eingesetzt werden können. Sie sind modular aufgebaut und bieten flexible Einsatzmöglichkeiten, ähnlich wie der GR-2.

Weitere Artikel

Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

ITIL – Das Service Design

ITIL

Eines der wichtigsten Ziele des Service Designs von ITIL ist die Konzeption, Entwicklung, Integration und Bereitstellung von neuen oder geänderten Services, nach den Anforderungen des Auftraggebers und unter Berücksichtigung der Bedürfnisse der betroffenen Akteure.

Ziele des ITIL Service Design

  1. Für die Geschäftsanforderungen neue oder geänderte IT Dienste entwickeln
  2. Planung und Bereitstellung von hochwertigen Prozessen die Kunden und Auftraggeber gerecht werden
  3. Risiken identifizieren und minimieren
  4. Standardisierte, sichere und ausfallsichere IT-Infrastrukturen, Anwendungen, Organisationen entwerfen
  5. Erstellung und Pflege der Dokumentation der qualitätsgetriebenen Dienstleistungen, Architekturen, Richtlinien und Prozessen
  6. Weiterentwicklung der Fertigkeiten und Fähigkeiten

TCO im Kontekt des Service Design

Ein grundsätzliches Ziel des ITIL Service Design ist es,  die Total Cost of Ownership (TCO) zu minimieren. Dazu werden Kostenaspekte bei der Planung neuer oder geänderter Dienste frühzeitig berücksichtigt, um langfristig Effizienz und Wertschöpfung zu maximieren. Das TCO im Kontext des ITIL Service Design berücksichtigt die vollständigen Kosten eines IT-Dienstes über seinen gesamten Lebenszyklus hinweg und schliesst die Entwicklung, Implementierung, Betrieb, Wartung und Ausmusterung ein.

Die 4 P der IT-Service Managementplanung

Bei der Planung werden die 4 P berücksichtigt.

  1. People: Mitarbeiter mit den richtigen Fähigkeiten und Verantwortlichkeiten einsetzen.
  2. Processes: Effektive und effiziente Abläufe zur Bereitstellung und Unterstützung von IT-Services.
  3. Products: Technologien und Werkzeuge nutzen, die für die Erbringung der Services notwendig sind.
  4. Partners: Externe Anbieter oder Partner gewinnen, die die IT-Services unterstützen oder ergänzen.

ITIL - 4 P der IT-Service Management Planung

Diese 4 P’s gewährleisten eine ganzheitliche und erfolgreiche IT-Service-Planung.

Die fünf Hauptvorteile des IT Service Designs nach ITIL

  • Bessere Ausrichtung an Geschäftsanforderungen: Die IT-Services werden so gestaltet, dass sie die Geschäftsziele und -anforderungen optimal unterstützen.
  • Höhere Servicequalität: Durch klar definierte und standardisierte Prozesse wird die Qualität der Services gesteigert.
  • Kostenreduktion: Mit effektiven Service-Design-Prozessen minimieren sich unnötige Ausgaben und optimieren zudem die Ressourcennutzung.
  • Verbesserte Risikomanagement: Die Risiken in Bezug auf Verfügbarkeit, Sicherheit und Kapazität werden frühzeitig erkannt.
  • Effizientere Servicebereitstellung: Gut geplante Services ermöglichen eine schnellere und zuverlässigere Einführung neuer IT-Services.

Konzepte und Aktivitäten beim Service Level Management

Dazu gehört ein ausgefeiltes Konzept des Service Level Managements (SLM) mit wichtigen Aktivitäten des Service Level Managements.

  • Service Level Agreements (SLAs) erstellen und pflegen: Definition und Verwaltung von SLAs, um sicherzustellen, dass die IT-Services den Kundenanforderungen entsprechen.
  • Überwachung und Messung der Service-Performance: Regelmäßiges Überprüfen der erbrachten Services im Vergleich zu den vereinbarten SLAs.
  • Service Reviews: Durchführung von regelmäßigen Meetings mit Kunden und Stakeholdern, um die Einhaltung der SLAs zu bewerten und mit dem kontinuierlichen Verbesserungsprozess (KVP) Anpassungen vorzunehmen.
  • Management von Verbesserungsmaßnahmen: Fortlaufende Identifikation und Umsetzung von Verbesserungen zur Optimierung der Servicequalität.
  • Berichterstattung: Regelmäßige Berichte zur Service-Performance für Kunden und Management erstellen.

 

Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

Robotik

Die chinesische Technologiebranche hat einen bemerkenswerten Meilenstein mit der Vorstellung des GR-1, eines humanoiden Roboters von dem Unternehmen Fourier Intelligence erreicht.

Präsentiert auf der World Artificial Intelligence Conference (WAIC) in Shanghai, beeindruckte dieser Roboter mit seiner Fähigkeit, auf zwei Beinen mit 5 km/h zu laufen und dabei eine Last von 50 kg zu tragen. Die Entstehungsgeschichte von Fourier Intelligence, das ursprünglich 2015 mit einem Fokus auf Rehabilitationsrobotik gegründet wurde, zeugt von einer beeindruckenden Diversifikation in ihrem Angebot.

Roboter als Begleiter und Helfer in China

Fourier Intelligence teilt die Vision von Tesla CEO Elon Musk, der humanoiden Robotern eine Rolle in alltäglichen Aufgaben und als Begleiter zuschreibt. Das Unternehmen plant, die GR-1-Roboter für Forschung und Entwicklung einzusetzen, mit dem Ziel, bis Ende des Jahres 2023 in die Massenproduktion zu gehen. Die Vision ist, dass in den nächsten fünf bis zehn Jahren humanoide Roboter zum integralen Bestandteil des täglichen Lebens werden können.

Sicherheitseinsatz von Robotern in den USA

In den USA gewinnen Sicherheitsroboter, insbesondere für den Einsatz in Reaktion auf steigende Kriminalitätsraten, zunehmend an Popularität. Der globale Sicherheitsrobotermarkt wird voraussichtlich bis 2030 auf 31,08 Milliarden Dollar anwachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 12,8 %. Das ist für Börsenspekulanten und Unternehmen wie Black Rock lukrativ.

Einer der Vorreiter auf diesem Gebiet ist Knightscope, Inc.. Es ist ein fortschrittliches Unternehmen der Sicherheitstechnologie aus dem Silicon Valley. Gegründet im Jahr 2013, nutzt das Unternehmen Technologien wie Autonomie, Robotik, künstliche Intelligenz und Elektrofahrzeugtechnik, um einzigartige Lösungen zu entwickeln. Ihre Technologie hat bereits über 2,3 Millionen Stunden im realen Feldeinsatz verbracht. Zu den Kunden von Knightscope gehören hochkarätige Organisationen wie das New York Police Department (NYPD) und das New York City Fire Department (FDNY).

Knightscope hat im Laufe des Jahres mehrere bedeutende Verträge abgeschlossen, darunter einen mit der Rutgers University in New Jersey sowie einen Pilotvertrag mit dem NYPD für einen K5-Roboter, der eine U-Bahn-Station in Manhattan patrouilliert.

Sicherheitseinsatz von Robotern in der EU

In der Europäischen Union steht die Robotik ebenfalls im Fokus, insbesondere in Bezug auf Sicherheitsanwendungen. Die EU hat in den letzten Jahren in Forschung und Entwicklung im Bereich der Robotertechnologie investiert, mit dem Ziel, die Effizienz und Sicherheit in verschiedenen Sektoren zu verbessern. Obwohl spezifische Pläne und Entwicklungen variieren können, konzentriert sich die EU in der Regel auf die Integration von Robotertechnologie in Bereichen wie der öffentlichen Sicherheit, der Industrie und der Gesundheitsversorgung.

Fazit

Der Fortschritt im Bereich der Robotik, insbesondere der humanoiden Roboter wie der GR-1 aus China und Sicherheitsroboter in den USA und der EU, zeigt das enorme Potenzial dieser Technologien. Während China sich auf die Entwicklung von humanoiden Robotern konzentriert, fokussieren die USA und die EU auf den Einsatz von Robotern zur Verbesserung der öffentlichen Sicherheit und Effizienz.

Quellen
1. Yahoo Finance – Chinese Startup Debuts World’s First Mass-Produced Humanoid Robot at WAIC https://finance.yahoo.com/news/chinese-startup-debuts-world-first-130000324.html?fr=sycsrp_catchall&guccounter=1 

2.  https://fourierintelligence.com

3. https://www.knightscope.com

 

 

Datenbank Modelle ACID und BASE im Vergleich

Datenbanksysteme

In der Welt der Datenbanktechnologien sind zwei zentrale Konzepte weit verbreitet: das ACID-Modell, das typischerweise mit relationalen (SQL) Datenbanken assoziiert wird. Das BASE-Modell wird oft mit NoSQL-Datenbanken in Verbindung gebracht. Diese Modelle definieren die grundlegenden Eigenschaften, die von den jeweiligen Datenbanksystemen erwartet werden.

ACID-Modell

ACID steht für Atomicity, Consistency, Isolation und Durability. Dieses Modell wird in relationalen Datenbankmanagementsystemen (RDBMS) eingesetzt, um die Zuverlässigkeit und Genauigkeit von Transaktionen zu gewährleisten.

  • Atomicity (Atomarität): Jede Transaktion wird als eine einzelne Einheit betrachtet, die entweder vollständig erfolgreich ist oder gar nicht ausgeführt wird.
  • Consistency (Konsistenz): Transaktionen führen eine Datenbank von einem konsistenten Zustand in einen anderen über, ohne die Datenintegrität zu verletzen.
  • Isolation (Isolierung): Gleichzeitig ausgeführte Transaktionen beeinflussen sich nicht gegenseitig.
  • Durability (Dauerhaftigkeit): Sobald eine Transaktion abgeschlossen ist, bleiben die Änderungen dauerhaft erhalten, auch im Falle eines Systemausfalls.

BASE-Modell

BASE steht für Basically Available, Soft State und Eventually Consistent. Dieses Modell wird in NoSQL-Datenbanksystemen verwendet, um Flexibilität, Skalierbarkeit und Verfügbarkeit in verteilten Systemen zu gewährleisten.

  • Basically Available (Grundsätzlich verfügbar): Das System garantiert die Verfügbarkeit von Daten, auch wenn einige Teile des Systems ausgefallen sind.
  • Soft State (Weicher Zustand): Der Zustand des Systems kann sich mit der Zeit ändern, auch ohne Benutzereingriffe.
  • Eventually Consistent (Schließlich konsistent): Das System stellt sicher, dass, wenn keine neuen Updates mehr erfolgen, alle Replikationen der Datenbank nach einiger Zeit konsistent sind.

Vergleichstabelle

Eigenschaft ACID-Modell BASE-Modell
Datenintegrität Hoch Variabel
Flexibilität Gering Hoch
Skalierbarkeit Vertikal Horizontal
Konsistenz Strenge Konsistenz Eventuelle Konsistenz
Transaktionsmanagement Strikt und zuverlässig Locker und anpassungsfähig
Einsatzgebiet Traditionelle Unternehmensanwendungen Verteilte, skalierende Anwendungen

Fazit

Das ACID-Modell bietet hohe Datenintegrität und Zuverlässigkeit, was es ideal für Anwendungen macht, die strenge Konsistenz und Transaktionssicherheit erfordern, wie z.B. Bankensysteme. Allerdings kann es aufgrund seiner strengen Regeln zu Einschränkungen in Bezug auf Flexibilität und Skalierbarkeit kommen.

Im Gegensatz dazu bietet das BASE-Modell eine hohe Flexibilität und Skalierbarkeit, was es ideal für verteilte Systeme und Anwendungen mit großem Datenvolumen und hohen Benutzerzahlen macht, wie soziale Netzwerke oder Echtzeit-Analysen. Die eventuelle Konsistenz kann jedoch zu Herausforderungen in Anwendungen führen, die eine sofortige Datenkonsistenz erfordern.

Letztendlich hängt die Wahl zwischen ACID- und BASE-Modellen von den spezifischen Anforderungen und dem Kontext der jeweiligen Anwendung ab. Beide Modelle haben ihre Berechtigung und bieten unterschiedliche Vorteile, die je nach Einsatzgebiet entscheidend sein können.

 

ITIL – Das Lebenszyklusmodell

ITIL

Das ITIL Lebenszyklusmodell verbessert die strategischen Ziele beim Einsatz in Projekten. Um ein qualitativ hochwertiges Service Ergebnis zu liefern, braucht es eine Struktur im Service Management. Die 5 Phasen des Servicelebenszyklusmodells liefern die Verbesserung.

Service Strategy (Service-Strategie)

In dieser Phase wird die IT-Strategie entwickelt, bei der alle IT-Services mit den Geschäftszielen und -anforderungen in Einklang stehen. Es umfasst die Definition des Marktes, die Entwicklung von strategischen Assets und die Vorbereitung auf die Umsetzung der Strategie.

Service Design (Service-Design)

Es werden Services entworfen und entwickelt, die in der Service-Strategie-Phase identifiziert wurden. Dazu gehören die Architektur, Prozesse, Richtlinien und die Dokumentation. Diese Phase stellt sicher, dass der Service effizient, nachhaltig ist. Es können die vereinbarten Geschäftsziele erfüllt werden.

Service Transition (Service-Übergang)

In der Service-Transition-Phase werden neue oder geänderte Services in die produktive Umgebung überführt. Dies umfasst das Change-, Release- ,  Deployment-, sowie das Risiken Management und eine Service-Knowledge-Base.

Service Operation (Service-Betrieb)

Diese Phase konzentriert sich auf den täglichen Betrieb der Services, um sicherzustellen, dass die vereinbarten Service-Level-Ziele erreicht werden. Hier werden Vorfälle und Anfragen bearbeitet, und es wird sichergestellt, dass die Services effektiv und effizient bereitgestellt werden.

Continual Service Improvement (Kontinuierliche Serviceverbesserung)

Diese Phase befasst sich mit der Identifikation, sowie der Umsetzung von Verbesserungen an Services und Service-Management Prozessen über den gesamten Lebenszyklus hinweg. Durch regelmäßige Überprüfungen und Analysen werden Möglichkeiten zur Verbesserung identifiziert. Die Maßnahmen führen zur Steigerung der Effizienz und der Effektivität.

Fazit

Das Servicelebenszyklusmodell von ITIL bietet einen strukturierten Rahmen, um IT-Services durch alle Phasen ihrer Entwicklung und Bereitstellung zu führen. Das gewährleistet eine effektive Abstimmung mit den Geschäftsanforderungen. Die systematische Herangehensweise an die Service-Strategie, -Design, -Transition, -Betrieb und -Verbesserung ermöglicht es Organisationen, die Qualität, Effizienz und Reaktionsfähigkeit ihrer IT-Services zu optimieren.

Der ITIL Servicelebenszyklusmodell erbringt eine proaktive und kontinuierliche Verbesserung der IT-Services. So wird ein dauerhafter Geschäftswert geschaffen und die Kundenzufriedenheit erhöht.

 

 

 

 

ITIL – Die Rollen beim Service Management

ITIL

ITIL (Information Technology Infrastructure Library) ist ein Rahmenwerk für IT-Service-Management (ITSM). Es bietet eine Reihe von Best Practices für die Bereitstellung von IT-Services.

Innerhalb des ITIL-Rahmenwerks gibt es verschiedene Rollen, die auf die Erbringung qualitativ hochwertiger IT-Services abzielen. Hier sind einige der Rollen, die im ITIL-Rahmenwerk definiert sind.

Service Owner

Verantwortlich für die Bereitstellung und das Management eines bestimmten IT-Services über den gesamten Lebenszyklus hinweg.

Process Owner

Verantwortlich für die Definition, das Management und die Verbesserung eines bestimmten IT-Prozesses.

Incident Manager

Verantwortlich für die effektive Verwaltung aller Vorfälle und die Sicherstellung einer schnellen Wiederherstellung des Service.

Problem Manager

Verantwortlich für die Verwaltung des Problemmanagementsprozesses, um die Ursachen von Vorfällen zu identifizieren und zu beheben.

Change Manager

Verantwortlich für die Verwaltung des Änderungsmanagementsprozesses, um sicherzustellen, dass alle Änderungen kontrolliert und effizient umgesetzt werden.

Configuration Manager

Verantwortlich für die Verwaltung der Konfigurationsdatenbank, um sicherzustellen, dass alle Konfigurationsdaten aktuell und genau sind.

Release und Deployment Manager

Verantwortlich für die Planung, den Entwurf, die Erstellung, die Prüfung und die Bereitstellung von Releases.

Service Desk

Dies ist oft die erste Anlaufstelle für Benutzer, die Unterstützung benötigen oder einen Vorfall melden möchten.

Service Level Manager

Verantwortlich für die Verhandlung, Vereinbarung und Überwachung von Service-Level-Vereinbarungen (SLAs) und die Sicherstellung, dass alle operativen Level-Vereinbarungen (OLAs) erfüllt werden.

Continual Service Improvement (CSI) Manager

Verantwortlich für die Identifikation von Verbesserungsmöglichkeiten und die Umsetzung von Verbesserungsinitiativen über den gesamten Service-Lebenszyklus hinweg.

Fazit:

Die Rollen tragen dazu bei, die Qualität und Effizienz von IT-Services zu verbessern, indem sie klare Verantwortlichkeiten und Prozesse festlegen.

 

 

 

Vergleich von Skizzen, Wireframes, Mock-ups und Prototypen

GUI Entwicklung

In den 1970er Jahren führte das Xerox Palo Alto Research Center in der Software Entwicklung Konzepte wie Fenster und Icons ein, die von Apple im Macintosh von 1984 bekannt gemacht wurden. Später trugen IBM, sowie Microsoft mit OS/2 und Microsoft mit der Einführung von Windows in den 1980er Jahren zur Verbreitung von GUIs bei. Auch Commodore mit dem Amiga und Atati mit dem Model ST entwickelten hervorragende GUIs.

Durch das Aufkommen des Internets mit HTML wurden in den 1990er Jahren webbasierte Oberflächen gefördert. Die mobile Revolution, angeführt durch Geräte wie Apples iPhone, prägte die 2000er Jahre mit der Entwicklung von Touchscreen-orientierten GUIs auf mobilen Geräten. Heute setzen moderne Trends in Bereichen wie KI, Augmented und Virtual Reality, sowie Responsive Design neue Maßstäbe. Dies ermöglicht eine immer nahtlosere Integration von Geräten und Plattformen.

Bei der Softwareentwicklung werden Skizzen, Wireframes, Mock-ups und Prototypen in verschiedenen Phasen des Designs verwendet, um Ideen und Konzepte zu visualisieren. Hier sind die Unterschiede:

Skizzen

Eine Skizze ist eine handgezeichnete oder grobe digitale Darstellung einer Idee. Ein Designer zeichnet schnell ein paar Striche auf ein Papier, um die grundlegende Anordnung von Elementen auf einer Seite darzustellen. In dieser frühen Phase können grundlegende Ideen gefunden werden.

Design Skizze zur Planung

Wireframes

In dieser Phase der Konzeption werden die Struktur und Funktionalität definiert. So folgt eine detailliertere, schematische Darstellung der Benutzeroberfläche in Schwarz-Weiß. Ein Wireframe zeigt die Position von Menüs, Schaltflächen und Textblöcken, aber noch ohne Farben oder Bilder.

Wireframe bei der Entwicklung

Mock-ups

Nun wird die Designphase genutzt, um das visuelle Erscheinungsbild zu entwickeln. Eine realistische, aber statische Darstellung des Designs mit Farben, Bildern und Typografie wird gesucht. Ein Mock-up einer mobilen App zeigt, wie die Endversion aussehen könnte, ist aber nicht interaktiv.


Mockup

Prototypen

Die letzte Entwicklungsphase nutzt Prototypen, um Benutzerinteraktionen zu testen und Feedback zu sammeln. Es wird eine funktionierende Simulation des Produkts, die Interaktion ermöglicht. Ein Prototyp, auf dem Nutzer klicken können, um durch die Seiten zu navigieren und erfahren, wie die GUI in der Endversion sein wird.

Fazit

Insgesamt sind diese Tools Schritte in einem Prozess, der von einer groben Idee (Skizze / Stetch) über ein strukturiertes Layout (Wireframe) und ein realistisches Design (Mock-up) bis hin zu einer funktionierenden Version (Prototyp) reicht, die die endgültige Benutzererfahrung simuliert.

 

Deutschlands Niedergang beim Quantencomputing

Quantencomputing - Wie ist die Entwicklung in Deutschland?

Deutschlands Rückfall im Bereich des Quantencomputings kann maßgeblich auf die Politik der Bundesregierung zurückgeführt werden.  Diese hat zugesagte Fördergelder (2018, 2021, ) gestrichen. So werden durch die Regierung und Politik unzureichende Ressourcen und fehlgeleitete Strategien gewählt, um die Entwicklungen in diesem zukunftsweisenden Technologiebereich zu unterstützen.

Obwohl Deutschland über eine starke Forschungsinfrastruktur und renommierte Institutionen verfügt, hat das Fehlen zielgerichteter Investitionen, die Einbeziehung der Industrie und die Schaffung eines förderlichen regulatorischen Umfelds die nationale Kompetenz im Quantencomputing beeinträchtigt und wird das Land gegenüber internationalen Mitbewerbern weiter ins Hintertreffen bringen.

Denn die Steuergelder werden von den US-Vasallen für kriegstreibende Maßnahmen und Massenmord ausgegeben, von denen die deutsche Bevölkerung nur Schaden  hat. Die staatlichen Gelder fließen über NGOs in die USA, sowie zu westlichen Konzernen und in die Taschen von westlichen Oligarchen.

Somit zählen die Aussagen der deutschen Regierung bei diesem Thema zur Propaganda, die der Artikel vom 27.04.2023 in heise online zeigt. Es wird nicht nur die Industrie, sondern auch der Forschungsbereich in Deutschland abgebaut. Das ist sicher einer der Gründe, warum im Jahr  2022 125 Milliarden Euro Investitionen von Deutschland ins Ausland geflossen sind und immer mehr Betriebe ins Ausland umziehen. Die Investitionen in Deutschland betrugen im gleichen Zeitraum nur noch 10,5 Milliarden Euro. Denn in Deutschland sind die Strom-, Gas- und Treibstoffpreise durch eine fehlgeleitete Politik der deutschen US-Politmarionetten und den Terroranschlägen auf die North Stream Pipelines extrem hoch. Daher existiert seitdem die Abhängigkeit von den USA. Denn Deutschland ist der größte Abnehmer des US Fracking Gases mit schlechter Qualität und seit dem von der deutschen Regierung zugelassenen Terroranschlag auf North Stream eine abhängige Kolonie der USA.

So ist der Niedergang Deutschlands und der zunehmende Wegzug von Unternehmen aus Deutschland einfach zu verstehen. Denn die USA sind kein Partner, weil sie die deutsche Industrie und den Mittelstand massiv beschädigt haben und nun werden die Reste der deutschen Unternehmen mit Fördergeldern in die USA gelockt.

 

 

 

Agiles Projektmanagement mit Kanban

Kanban Logo

Kanban ist eine Methodik zur Optimierung von Arbeitsabläufen, die ursprünglich in der japanischen Automobilindustrie entwickelt wurde. Sie basiert auf dem Prinzip der visuellen Darstellung von Aufgaben, deren Status und Fortschritt, meist auf einem „Kanban-Board“. Dies hilft dabei, Engpässe zu identifizieren, die Arbeitslast zu regulieren und die Effizienz des Teams zu steigern

Wie funktioniert Kanban?

Ein Kanban-System ist ziemlich einfach aufgebaut. Es besteht normalerweise aus einem physischen oder digitalen Kanban-Board und darauf platzierten Kanban-Karten.

Kanban Tafel

Das Kanban-Board ist in mehrere Spalten unterteilt, die den unterschiedlichen Stadien des Arbeitsprozesses entsprechen. Die einfachste Form hat drei Spalten: „Zu erledigen“ (To Do), „In Arbeit“ (In Progress) und „Erledigt“ (Done).

Jede Aufgabe im Arbeitsprozess wird auf einer separaten Kanban-Karte dargestellt. Diese Karte enthält Informationen wie die Aufgabenbeschreibung, den verantwortlichen Mitarbeiter, das Startdatum und das Fälligkeitsdatum.

Wenn eine neue Aufgabe ansteht, wird sie als Karte in die „Zu erledigen„-Spalte eingefügt. Wenn jemand an der Aufgabe arbeitet, wird die Karte in die „In Arbeit„-Spalte verschoben. Sobald die Aufgabe abgeschlossen ist, wird die Karte in die „Erledigt„-Spalte verschoben.

Beispiel zur Nutzung von Kanban

Angenommen, Sie sind Teil eines Softwareentwicklungsteams. Die Kanbantafel des Teams könnte so aussehen:

Zu erledigen
1. Funktion zur Benutzeranmeldung erstellen
2. Datenbank für Benutzerinformationen einrichten
3. Design der Startseite entwerfen

In Arbeit
1. Backend für die Benutzeranmeldung entwickeln
2. Testen der Anmeldungs- und Abmeldefunktionen

Erledigt
1. Spezifikationen für die Anwendungsfälle erstellen
2. Entwurf des Anmeldeformulars

Jeder im Team kann den Status jeder Aufgabe auf der Kanbantafel sehen und so schnell erkennen, welche Aufgaben Priorität haben und wer gerade welche Aufgabe bearbeitet.

Die Grundregel des Kanban-Systems ist es, die Anzahl der gleichzeitig „in Arbeit“ befindlichen Aufgaben zu begrenzen. Diese Begrenzung wird als „Work in Progress“ (WIP) -Limit bezeichnet. Das hilft, Überlastung zu vermeiden und sicherzustellen, dass Aufgaben vollständig abgeschlossen werden, bevor neue Aufgaben in Angriff genommen werden.

Es können Engpässe während der Entwicklung schnell erkannt werden und dadurch können passende Gegenmaßnahmen zur Verbesserung umgesetzt werden.

Fazit

Der Einsatz von Kanban in der Softwareentwicklung bietet eine einfache, aber effektive Methode zur Visualisierung und Kontrolle des Arbeitsflusses. Es fördert Transparenz, Zusammenarbeit und unterstützt die kontinuierliche Verbesserung. Durch die Einführung von WIP-Limits kann Kanban dabei helfen, Multitasking zu vermeiden und die Produktivität zu steigern. Insgesamt kann Kanban wesentlich dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Entwicklungszeiten zu verkürzen.

 

 

Die Entwicklungsphasen von DevOps

DevOps Logo

DevOps wird genutzt, um die Zusammenarbeit zwischen den Teams für Softwareentwicklung und IT-Betrieb zu verbessern.  DevOps fördert einen kontinuierlichen, automatisierten und schnellen Entwicklungs- und Bereitstellungsprozess.

Es reduziert die Zeit bis zur Markteinführung und erhöht die Softwarequalität durch frühzeitige Fehlererkennung und schnelle Korrektur. Darüber hinaus ermöglicht es die kontinuierliche Überwachung und Optimierung der Systeme. Das führt zu einer höheren Kundenzufriedenheit und einer verbesserten Geschäftsleistung.

Phasen von DevOps

Planung: Definiere Ziele und skizziere den technischen und wirtschaftlichen Plan für das Projekt.
Codierung: Schreibe und überprüfe den Code unter Berücksichtigung der geplanten Spezifikationen und Standards.
Build: Kompiliere den Code, um die Lauffähigkeit herzustellen.
Test: Überprüfe und teste den Code auf Fehler und Leistungsprobleme.
Release: Setze die Änderungen in einer kontrollierten Umgebung frei. Überwache den Prozess, um sicherzustellen, dass es keine unvorhergesehenen Probleme gibt.
Deployment: Implementiere den Code in der Produktivumgebung, überwache seine Leistung und seine Auswirkungen.
Betrieb: Überwache und verwalte die Infrastruktur und die genutzten Anwendungen in der Produktionsumgebung.
Monitoring: Überwache die Leistung, sowie das Verhalten der Anwendung in der Produktionsumgebung und dokumentiere alle Probleme oder Ausfälle. Sie werden in zukünftigen Iterationen zu behoben. Sammle dabei Feedback und verwende es, um die Prozesse kontinuierlich zu verbessern (KVP).

Die Phasen bei DevOps wiederholen sich iterativ.

Fazit

DevOps stellt einen neuartigen Ansatz in der Softwareentwicklung und dem Operations Bereich dar, indem es eine nahtlose Integration und Zusammenarbeit zwischen den beiden Bereichen ermöglicht. Durch die Förderung von Geschwindigkeit, Effizienz und Qualität in der Softwarebereitstellung verbessert DevOps die Agilität und Reaktionsfähigkeit von Unternehmen. Das führt zu einer höheren Kundenzufriedenheit und verbesserten Geschäftsergebnissen. Trotz seiner Komplexität und der Notwendigkeit einer sorgfältigen Implementierung ist DevOps eine wertvolle agile Entwicklungsmethode, die den Weg für kontinuierliche Innovation und Verbesserung ebnet.