VUCA und die Herausforderung der IT

VUCA in der IT stellt Herausforderungen und Chancen am Beispiel einer Cloud-Migration

Die IT-Welt ist ein dynamisches, oft chaotisches Umfeld, das stark von VUCA geprägt ist.

VUCA steht für

  • Volatility (Volatilität)
  • Uncertainty (Unsicherheit)
  • Complexity (Komplexität)
  • Ambiguity (Mehrdeutigkeit)

Diese Begriffe beschreiben die Herausforderungen moderner IT-Landschaften, insbesondere in einer Ära, die von Digitalisierung, Automatisierung und globaler Vernetzung geprägt ist. Um zu verdeutlichen, wie VUCA die IT beeinflusst, betrachten wir die Cloud-Migration eines mittelständischen Unternehmens.

Volatilität: Schnelle Veränderungen

In der IT sind Technologien, Marktanforderungen und regulatorische Rahmenbedingungen ständig im Wandel. Bei der Entscheidung, von einer On-Premises-Infrastruktur zu einer Cloud-Lösung zu wechseln, muss das Unternehmen auf plötzliche Veränderungen reagieren. Ein Beispiel könnte die Ankündigung eines Cloud-Anbieters sein, eine bestimmte Technologie oder einen Service einzustellen. Diese Volatilität erfordert schnelle Entscheidungen und flexible Anpassungen, um den Geschäftsbetrieb nicht zu gefährden.

Beispiel: Während der Cloud-Migrationsphase kündigt der bevorzugte Anbieter neue Preisstrukturen an, die die Betriebskosten erheblich erhöhen könnten. Das Unternehmen muss nun alternative Anbieter evaluieren oder die Projektkosten neu kalkulieren.

Unsicherheit: Unvorhersehbare Ergebnisse

Die IT-Projekte sind häufig mit Unsicherheiten behaftet. Bei der Cloud-Migration können unterschiedliche Fragen aufkommen, wie

  • Werden die neuen Systeme reibungslos funktionieren?
  • Wird die Performance ausreichen?

Solche Unsicherheiten erschweren die Planung und die Definition klarer Projektziele.

Beispiel: Trotz umfangreicher Tests stellt sich nach der Migration heraus, dass eine unternehmenskritische Anwendung in der neuen Cloud-Umgebung langsamer läuft. Die IT-Abteilung muss ad hoc nach Lösungen suchen, ohne genau zu wissen, wie lange dies dauern wird.

Komplexität: Vielschichtige Abhängigkeiten

Die IT-Systeme sind heute hochgradig komplex und miteinander vernetzt. Bei der Cloud-Migration müssen nicht nur Daten und Anwendungen verschoben werden, sondern auch Sicherheitskonzepte, Netzwerkkonfigurationen und Compliance-Vorgaben berücksichtigt werden.

Beispiel: Während der Migration entdecken die IT-Teams, dass bestimmte ältere Anwendungen nicht mit der Cloud kompatibel sind. Um die Migration erfolgreich abzuschließen, müssen entweder die Anwendungen modernisiert oder alternative Lösungen entwickelt werden – eine komplexe Herausforderung.

Mehrdeutigkeit: Unklare Rahmenbedingungen

Mehrdeutigkeit entsteht, wenn Informationen oder Anweisungen nicht eindeutig sind. In der Cloud-Migration zeigt sich dies beispielsweise bei der Interpretation von Service-Level-Agreements (SLAs) oder Datenschutzanforderungen.

Beispiel: Der Cloud-Anbieter garantiert eine Verfügbarkeit von 99,9 %, was zunächst ausreichend klingt. Doch bei genauerer Analyse stellt sich heraus, dass dies nur für bestimmte Regionen gilt, die nicht mit den Anforderungen des Unternehmens übereinstimmen. Diese Mehrdeutigkeit kann zu Fehlentscheidungen führen.

Strategien zur Bewältigung von VUCA in der IT

Um mit VUCA effektiv umzugehen, gibt es bewährte Ansätze.

  • Agilität fördern: Ein agiles Projektmanagement ermöglicht schnelle Anpassungen an volatile Bedingungen.
  • Transparenz schaffen: Klare Kommunikation und umfassende Risikoanalysen können Unsicherheiten reduzieren.
  • Komplexität managen: Der Einsatz von spezialisierten Tools, wie automatisierten Monitoring-Systemen, hilft, den Überblick zu behalten.
  • Klarheit durch Schulungen: Mitarbeiter müssen regelmäßig geschult werden, um Mehrdeutigkeit in technischen und rechtlichen Fragen zu minimieren.

Fazit

Das Beispiel der Cloud-Migration zeigt, wie VUCA die IT-Welt prägt und welche Herausforderungen Unternehmen meistern müssen. Mit den richtigen Strategien können jedoch aus Unsicherheiten Chancen werden. Die Fähigkeit, schnell und flexibel auf Veränderungen zu reagieren, ist ein entscheidender Erfolgsfaktor in der digitalen Transformation. VUCA mag komplex erscheinen, doch es bietet auch die Möglichkeit, innovative Lösungen zu entwickeln und Wettbewerbsvorteile zu schaffen.

Netzneutralität des Internet in den USA aufgehoben

Das Urteil zur Netzneutralität des United States Court of Appeals for the Sixth Circuit vom 2. Januar 2025 bestätigt die Entscheidung der Federal Communications Commission (FCC), die Netzneutralität in den USA aufzuheben.

Die Netzneutralität gewährleistet seit Jahrzehnten, dass alle Daten im Internet gleich behandelt werden, unabhängig von Inhalt, Absender oder Empfänger. Durch die Aufhebung dieser Regelung können US-Internetdienstanbieter nun bestimmten Datenverkehr priorisieren oder verlangsamen oder mit Geofencing eingrenzen.

Mögliche Auswirkungen auf Nutzer von US-Diensten in Deutschland

  1. Änderungen bei US-Diensten: US-basierte Online-Dienste könnten ihre Datenübertragungsstrategien anpassen, um in den USA bevorzugte Behandlung zu erhalten. Dies könnte indirekt die Qualität oder Geschwindigkeit dieser Dienste für Nutzer in Deutschland beeinflussen.
  2. Wettbewerbsdruck auf europäische Anbieter: Sollten US-Dienste durch die neuen Regelungen Wettbewerbsvorteile erlangen, könnten europäische Anbieter unter Druck geraten, ähnliche Praktiken zu fordern, was die Debatte über die Netzneutralität in Europa beeinflussen könnte.
  3. Regulatorische Diskussionen in Europa: Obwohl die Netzneutralität in der EU gesetzlich verankert ist, könnten die Entwicklungen in den USA Diskussionen über die zukünftige Ausgestaltung der Netzneutralität in Europa anregen.


    Es ist jedoch wichtig zu betonen, dass die rechtlichen Rahmenbedingungen in Deutschland eigenständig sind. Die Aufhebung der Netzneutralität in den USA hat keine direkte rechtliche Wirkung, aber eine starke politische Wirkung auf auf die Regulierung im US-abhängigen Deutschland. Daher werden langfristig technische und marktbezogene Entwicklungen, die aus der US-Entscheidung resultieren, auch hierzulande spürbar werden

Technische Auswirkungen

  1. Verzögerungen im Datenfluss
    • US-Serverpriorisierung: Daten von US-Diensten, die in den USA gehostet werden, könnten bevorzugt behandelt werden, während andere Daten (z. B. aus Deutschland oder der EU) langsamer übertragen werden.
    • Erhöhter Ping und Latenz: Insbesondere bei Echtzeitanwendungen wie Online-Gaming oder Videoanrufen könnte es zu einer schlechteren Performance kommen, wenn diese Daten aus den USA langsamer bereitgestellt werden.
  2. Reduzierte Dienstqualität
    • Anbieter könnten gezwungen werden, für eine bevorzugte Behandlung ihrer Daten innerhalb der USA zusätzliche Gebühren an ISPs zu zahlen. Diese Kosten könnten auf Nutzer in Deutschland umgelegt werden, was zu höheren Preisen oder eingeschränkten Diensten führen könnte.
    • Begrenzte Verfügbarkeit: Einige US-Dienste könnten für europäische Nutzer in der Qualität eingeschränkt sein, da ISPs die Datenübertragung bewusst drosseln.
  3. Technische Umgehungen
    • VPN-Nutzung: Um Einschränkungen durch US-ISPs zu umgehen, könnten mehr Nutzer auf VPN-Dienste zurückgreifen, was zusätzliche Latenzen und Performanceeinbußen verursachen könnte.

Organisatorische Auswirkungen

  1. Geänderte Preisstrukturen
    • US-Unternehmen könnten gezwungen sein, neue Kostenmodelle einzuführen, um bevorzugte Datenübertragungen sicherzustellen. Diese Kosten könnten als Abonnementgebühren oder Preiserhöhungen an Nutzer in Deutschland weitergegeben werden.
  2. Serviceänderungen bei US-Anbietern
    • Anbieter könnten bestimmte Dienste oder Inhalte für Nutzer in Europa einschränken, um Kosten zu reduzieren. Dies könnte insbesondere für kleinere Anbieter relevant sein, die sich keine bevorzugten Datenübertragungsrechte leisten können.
  3. Beeinträchtigung der Datenintegrität
    • Unterschiedliche Priorisierung: Inhalte könnten durch US-basierte ISPs verändert oder in ihrer Reihenfolge priorisiert werden, was sich auf die Wahrnehmung und Nutzung von Diensten auswirken könnte.
  4. Komplexere regulatorische Abstimmungen
    • Unternehmen, die sowohl in den USA als auch in der EU operieren, müssten möglicherweise unterschiedliche Strategien entwickeln, um den jeweiligen lokalen Regelungen gerecht zu werden. Dies könnte die Effizienz und den Support für Nutzer in Deutschland beeinträchtigen.

Langfristige Auswirkungen

  1. Marktveränderungen
    • Europäische Anbieter könnten an Marktanteilen gewinnen, wenn US-Dienste schlechter zugänglich oder teurer werden.
    • US-Anbieter könnten ihren Fokus auf lokale Märkte legen, was zu einer geringeren Innovation und Verfügbarkeit für internationale Nutzer führen könnte.
  2. Politischer Druck
    • Die Entwicklungen in den USA könnten europäische Regulierungsbehörden dazu bewegen, ihre bestehenden Regeln zur Netzneutralität zu überprüfen, um sicherzustellen, dass europäische Nutzer nicht indirekt durch US-Entscheidungen benachteiligt werden.

Einfluss auf die Verbreitung von Informationen

  1. Priorisierung von Inhalten durch ISPs
    • Ohne Netzneutralität könnten ISPs in den USA (und potenziell in anderen Ländern, wenn diese Praktiken übernommen werden) Inhalte bevorzugen, die mit staatlichen oder regierungsfreundlichen Narrativen übereinstimmen.
      Unabhängige oder oppositionelle Stimmen könnten benachteiligt werden, da sie nicht für bevorzugte Übertragungsraten zahlen können.
    • Dies könnte eine effektivere Verbreitung von propagandistischen Inhalten und eine gleichzeitige Unterdrückung kritischer Informationen ermöglichen.
  2. Geofencing von Propaganda
    • Inhalte könnten gezielt in bestimmten Regionen priorisiert oder blockiert werden, um die gewünschte Zielgruppe effektiver zu erreichen oder von bestimmten Informationen abzuschneiden.

Auswirkungen auf Überwachungs- und Datenzugriffsmechanismen

  1. Einfacherer Zugriff auf Daten
    • Ohne Netzneutralität könnten ISPs verpflichtet oder ermutigt werden, Überwachungsdaten direkt mit Regierungsstellen zu teilen. Dies könnte dazu führen, dass Regierungen gezielt Inhalte beobachten und manipulieren können, um die öffentliche Meinung zu beeinflussen.
    • Solche Daten könnten auch verwendet werden, um die Wirkung von Propaganda-Kampagnen in Echtzeit zu messen und zu optimieren.
  2. Verhinderung von Verschlüsselungsdiensten
    • ISPs könnten den Zugang zu sicheren und anonymen Kommunikationsdiensten (z. B. Tor, VPNs) drosseln oder blockieren, was es einfacher macht, Propaganda durch ungeschützte Kanäle zu verbreiten und Gegenstimmen zu überwachen.

Fragmentierung der Informationslandschaft

  1. Förderung staatlich geförderter Inhalte
    • Regierungen könnten mit ISPs zusammenarbeiten, um propagandistische Inhalte zu priorisieren, indem sie hohe Gebühren zahlen oder direkte Partnerschaften eingehen.
    • Dies könnte dazu führen, dass Nutzer bevorzugt mit regierungsnahen Informationen konfrontiert werden, während unabhängige oder abweichende Informationen in den Hintergrund treten.
  2. Beeinflussung internationaler Diskurse
    • US-amerikanische Propaganda könnte durch die globale Verbreitung von US-Diensten (z. B. soziale Medien oder Streaming-Plattformen) weiterhin großen Einfluss haben, während Gegenpositionen von anderen Ländern möglicherweise schlechter verbreitet werden.

Auswirkungen auf Deutschland

  1. Import von Mechanismen
    • Wenn solche Praktiken in den USA erfolgreich implementiert werden, könnten sie als Vorbild für ähnliche Maßnahmen in Deutschland oder der EU dienen, insbesondere im Kontext von Desinformation und Informationskontrolle.
  2. Beeinflussung von Allianzen und geopolitischen Interessen
    • Die Aufhebung der Netzneutralität könnte genutzt werden, um gezielt Inhalte zu fördern, die transatlantische Beziehungen stärken oder europäische Bevölkerungen in eine bestimmte Richtung lenken.

Fazit

Die Aufhebung der Netzneutralität in den USA eröffnet theoretisch Möglichkeiten, wie Regierungen – sowohl in den USA als auch im abhängigen Deutschland gewünschte Inhalte effektiver verbreiten und alternative Meinungen unterdrücken könnten. Dies könnte durch Priorisierung bestimmter Daten, gezielte Überwachung und eine Fragmentierung der Informationslandschaft geschehen. Die konkreten Auswirkungen hängen davon ab, inwiefern staatliche Akteure diese neuen technischen und wirtschaftlichen Möglichkeiten nutzen.

Die Aufhebung der Netzneutralität in den USA könnte für deutsche Nutzer von US-Diensten technische Herausforderungen, wie schlechtere Performance und höhere Preise, Zensur, sowie organisatorische Änderungen wie Einschränkungen bestimmter Dienste mit sich bringen. Diese Auswirkungen hängen stark davon ab, wie US-Dienstanbieter ihre Strategien anpassen und ob diese Anpassungen global wirken.

Das Ergebnis ist „Teile und Herrsche“, das von den USA gewünscht wird. Das Internet wird zwar weiter existieren, aber seine tragende technologische, sowie weltweite Unterstützung und Nutzung verlieren. Denn der globale Süden wird konkurrierend weitere, zum Internet parallele, abgeschirmte, sowie unabhängige Netzwerke mit besseren Bedingungen betreiben. Diese Netze sind bereits in Teilen fertiggestellt. Dadurch wird der von den USA geführte Westen vor allen wirtschaftlich, sowie technologisch weiter verlieren und sich selbst dadurch weiter vernichten.

Arduino Uno vs. ESP32 und ESP32-S3 – Unterschiede und Gemeinsamkeiten

Die Welt der Mikrocontroller bietet eine breite Palette an Entwicklungsboards, die jeweils spezifische Stärken und Schwächen aufweisen. Der Arduino Uno, der als Klassiker in der Maker-Szene gilt, unterscheidet sich in vielerlei Hinsicht von moderneren Boards wie dem ESP32 und dessen Variante ESP32-S3. In diesem Artikel vergleichen wir die technischen Spezifikationen und Einsatzmöglichkeiten dieser drei Mikrocontroller und zeigen ihre Gemeinsamkeiten auf.

Technische Unterschiede der Microcontroller

1. Prozessor und Leistung

  • Arduino Uno
    • Prozessor: 8-Bit ATmega328P
    • Taktfrequenz: 16 MHz
    • RAM: 2 KB
    • Flash-Speicher: 32 KB
  • ESP32
    • Prozessor: Dual-Core 32-Bit Xtensa LX6
    • Taktfrequenz: bis zu 240 MHz
    • RAM: ca. 520 KB SRAM, zusätzlicher PSRAM bei manchen Modellen
    • Flash-Speicher: Variiert, typischerweise 4 MB bis 16 MB
  • ESP32-S3
    • Prozessor: Dual-Core 32-Bit Xtensa LX7
    • Taktfrequenz: bis zu 240 MHz
    • RAM: 512 KB SRAM + bis zu 8 MB PSRAM
    • Flash-Speicher: 4 MB bis 16 MB

Der ESP32 und der ESP32-S3 übertreffen den Arduino Uno bei Weitem in Bezug auf Leistung und Speicherkapazität, was sie für rechenintensive Anwendungen geeignet macht.

2. Konnektivität

  • Arduino Uno
    • Keine integrierte Wi-Fi- oder Bluetooth-Unterstützung
    • Benötigt externe Module für drahtlose Kommunikation
  • ESP32
    • Integriertes Wi-Fi (2,4 GHz) und je nach Version Bluetooth (Classic und BLE)
  • ESP32-S3
    • Integriertes Wi-Fi (2,4 GHz) und Bluetooth LE
    • Verbesserte BLE-Funktionen, insbesondere für IoT-Anwendungen

Die in vielen Varianten existierenen Microcontroller ESP32 und der ESP32-S3 bieten von Haus aus drahtlose Kommunikationsmöglichkeiten, die den Arduino Uno ohne externe Module nicht hat.

3. GPIOs und Peripheriegeräte

  • Arduino Uno
    • 14 digitale I/O-Pins (6 davon PWM-fähig)
    • 6 analoge Eingänge
  • ESP32
    • Bis zu 36 GPIO-Pins (je nach Modell)
    • PWM-Unterstützung, ADC, DAC, I2C, SPI, UART
    • Integrierter Touch-Sensor und Hall-Sensor
  • ESP32-S3
    • Ähnliche GPIO-Anzahl wie der ESP32
    • Verbesserte Unterstützung für maschinelles Lernen und Vektoroperationen

4. Stromverbrauch

  • Arduino Uno
    Relativ geringer Stromverbrauch, jedoch nicht optimiert für stromsparende Anwendungen.
  • ESP32
    Energiesparmodi (z. B. Deep Sleep) für IoT-Anwendungen.
  • ESP32-S3
    Noch effizienter als der ESP32 bei Low-Power-Anwendungen.

Gemeinsamkeiten der Microcontroller

  1. Entwicklungsumgebung
    Alle drei Boards können mit der Arduino IDE programmiert werden, was sie für Einsteiger und Fortgeschrittene gleichermaßen zugänglich macht.
  2. GPIO-Unterstützung
    Obwohl sich die Anzahl und Funktionen der Pins unterscheiden, bieten alle Boards flexible Möglichkeiten mit Schnittstellen für die Ansteuerung von LEDs, Motoren und anderen Peripheriegeräten.
  3. Community-Support
    Sowohl der Arduino Uno, als auch der ESP32 und ESP32-S3 verfügen über große Communitys mit einer Fülle von Tutorials, Bibliotheken und Projekten.
  4. Einsatzbereich
    Alle drei Mikrocontroller können in IoT-, Automatisierungs- und Elektronikprojekten eingesetzt werden, wobei der ESP32 und ESP32-S3 deutlich leistungsfähiger sind. Der Arduino Uno ist mehr für den Einstieg zum Internet der Dinge (IoT) nutzbar.

Fazit

Der Arduino Uno eignet sich hervorragend für einfache Projekte, bei denen keine drahtlose Kommunikation erforderlich ist. Der ESP32 und insbesondere der ESP32-S3 bieten jedoch deutlich mehr Rechenleistung, Konnektivität und Speicher, wodurch sie ideal für komplexere Anwendungen wie IoT, maschinelles Lernen und datenintensive Projekte sind.

Wer Wert auf Einfachheit und schnelle Ergebnisse legt, ist mit dem Arduino Uno gut beraten. Für Entwickler, die fortschrittliche Funktionen wie Wi-Fi, Bluetooth und umfangreiche Rechenressourcen benötigen, sind der ESP32 oder ESP32-S3 die bessere Wahl.

RPZ in der FMEA – Optimierungsmaßnahmen bei Risiken

Die Risikoprioritätszahl (RPZ) ist ein zentrales Instrument der FMEA, um potenzielle Risiken in einem Prozess oder Produkt zu bewerten und zu priorisieren. Sie wird durch Multiplikation der Auftrittswahrscheinlichkeit (A), der Bedeutung (B) und der Entdeckungswahrscheinlichkeit (E) berechnet:

RPZ = A * B * E

Eine RPZ im Bereich von 100 bis 150 zeigt an, dass Optimierungsmaßnahmen notwendig sind. Ziel dieser Maßnahmen ist es, die Auftrittswahrscheinlichkeit, die Bedeutung oder die Entdeckungswahrscheinlichkeit zu senken, um die RPZ zu reduzieren und das Risiko beherrschbar zu machen.

Beispiel für die RPZ-Berechnung:

Parameter Wert vor Maßnahme Wert nach Maßnahme
Auftrittswahrscheinlichkeit (A) 5 3
Bedeutung (B) 8 8
Entdeckungswahrscheinlichkeit (E) 4 2
RPZ 160 48

Ausgangssituation:
Ein Spannungsausfall eines Netzteils wurde analysiert. Die RPZ lag bei 160, was als kritisch eingestuft wurde.

Optimierungsmaßnahmen:

  • Verbesserung der Qualitätssicherung durch Einführung standardisierter Tests (Reduktion von A).
  • Implementierung eines Monitoring-Systems zur frühzeitigen Fehlererkennung (Reduktion von E).

Ergebnis:
Nach Umsetzung der Maßnahmen konnte die RPZ auf 48 gesenkt werden, was das Risiko in einen akzeptablen Bereich bringt. Im Regelfall wird dies im FMEA Dokument beschrieben.

Das AIDA Prinzip und der Elevator Pitch

Das AIDA-Prinzip lässt sich hervorragend im betrieblichen Vorschlagswesen, aber auch auf die Vermarktung eines IoT-Produkts mit Microcontrollern anwenden. Dabei spielt der Elevator Pitch eine wichtige Rolle, um in wenigen Sekunden die Aufmerksamkeit der Zielgruppe zu gewinnen und das Interesse an dem Produkt zu wecken. Hier ein Beispiel für eine smarte IoT-Umgebung, z. B. ein DIY-Kit zur Heimautomatisierung.

  1. Attention (Aufmerksamkeit)
    Die Aufmerksamkeit wird durch einen prägnanten Elevator Pitch in Technik-Foren oder sozialen Medien erregt, etwa: „Mit unserem DIY-IoT-Kit verwandeln Sie Ihr Zuhause in ein smartes, energieeffizientes Paradies – in nur 10 Minuten!“ Ergänzt wird dies durch ein animiertes Video, das zeigt, wie der Microcontroller mithilfe von Sensoren eine smarte Beleuchtung steuert, die automatisch auf Tageslicht und Präsenz reagiert.
  2. Interest (Interesse)
    Das Interesse wird geweckt, indem technische Details des Produkts auf der Website oder in einem Blogbeitrag vorgestellt werden. Zum Beispiel wird erklärt, wie einfach die Einrichtung ist, wie verschiedene Geräte miteinander kommunizieren und wie der Microcontroller durch offene Standards wie MQTT oder Zigbee flexibel integriert werden kann.
  3. Desire (Verlangen)
    Das Verlangen wird verstärkt, indem Erfolgsgeschichten von Nutzern gezeigt werden. Beispielsweise teilt ein Maker in einem Video, wie er mit dem DIY-Kit nicht nur Energie gespart, sondern auch sein Zuhause sicherer gemacht hat. Bilder und Videos von realen Anwendungen machen das Produkt greifbar und zeigen die Vorteile.
  4. Action (Handlung)
    Die Handlung wird durch einen Call-to-Action angeregt, wie z. B. einen limitierten Einführungspreis oder ein kostenloses E-Book mit Projektideen für Käufer. Ein „Jetzt bestellen“-Button führt direkt zur Produktseite, während ein Countdown-Timer die Dringlichkeit erhöht.

Fazit

Der Elevator Pitch ergänzt das AIDA-Prinzip perfekt, indem er die Aufmerksamkeit im ersten Schritt kurz und prägnant einfängt. Kombiniert mit den weiteren AIDA-Phasen wird eine schlüssige und wirkungsvolle Marketingstrategie geschaffen, die besonders für technische Produkte wie IoT-Kits mit Microcontrollern geeignet ist.

38C3 Kongress des Chaos Computer Clubs (CCC)

Der 38. Chaos Communication Congress (38C3) wird vom Chaos Computer Club (CCC) organisiert und ist eine der führenden Veranstaltungen zu Technologie, Gesellschaft und digitaler Kultur.

Unter dem Motto „Resource Exhaustion“ beleuchtet der Kongress eine breite Palette von Themen, die von den neuesten Entwicklungen in der Informationstechnologie über Datenschutz und Netzwerksicherheit bis hin zu gesellschaftlichen und politischen Fragestellungen reichen. Die Vorträge, Workshops und Diskussionen richten sich an eine vielfältige Community von Technikbegeisterten, Hacker, Aktivisten, Wissenschaftler und Künstler.

Die Videos und Präsentationen auf der Webseite des 38C3 bieten spannende Einblicke in Themen wie:

  • Datenschutz und Überwachung: Von der Analyse gesammelter Fahrzeugdaten bis zur Offenlegung von Sicherheitslücken in modernen Technologien.
  • Technische Innovationen: Beispiele sind DIY-Biotechnologie, fortgeschrittene Mikrocontroller-Technologien und Methoden zur Entschlüsselung.
  • Gesellschaftliche Auswirkungen: Kritische Diskussionen über technologische Machtstrukturen und deren Einfluss auf unsere Gesellschaft.

Interessant finde ich vor allen die Beiträge:

  • Wir wissen wo dein Auto steht – Volksdaten von Volkswagen
    Bewegungsdaten von 800.000 E-Autos sowie Kontaktinformationen zu den Besitzern standen ungeschützt im Netz. Sichtbar war, wer wann zu Hause parkt, beim BND oder vor dem Bordell.

    Welche Folgen hat es, wenn VW massenhaft Fahrzeug-, Bewegungs- und Diagnosedaten sammelt und den Schlüssel unter die Fußmatte legt?

    Was verraten Fahrzeugdaten über die Mobilität von Behörden, Ämtern, Ministerien, Lieferdiensten, Mietwagenfirmen, etc.?

    Wofür werden diese Daten überhaupt gesammelt?

    Wir zeigen Kurioses bis Bedenkliches – natürlich mit mehr Respekt für den Datenschutz, als diejenigen, die die Daten gesammelt haben.

    Licensed to the public under http://creativecommons.org/licenses/by/4.0

  • Liberating Wi-Fi on the ESP32
    Reverse engineering the Wi-Fi peripheral of the ESP32 to build an open source Wi-Fi stack.

    During the 38c3, there are probably multiple thousands of ESP32s in the CCH, all of which run a closed source Wi-Fi stack. And while that stack works, it would be nicer to have an open source stack, which would grant us the ability to modify and audit the software, which carries potentially sensitive data.

    So we set to work, reverse engineering the proprietary stack and building a new open source one. We soon discovered just how versatile the ESP32 can be, both as a tool for research and IoT SoC, when its capabilities are fully unlocked. This includes using it as a pentesting tool, a B.A.T.M.A.N. mesh router or an AirDrop client.

    You’ll learn something about Wi-Fi, the ESP32, reverse engineering in general and how to approach such a project.

    Licensed to the public under http://creativecommons.org/licenses/by/4.0

  • Transparency? Not from the European Commission 
    The European Commission is the executive branch of the European Union with the duty to uphold the law. The transparency of the Commission´s actions and decisions range from questionable to abysmal. Attempts by the public to access information are often thwarted. This talk will cover the Commission´s lack of transparency, challenges faced by the public in accessing information, Commission´s tactics and examples of the European Ombudsman´s interventions to improve the situation. Whether you are interested in ChatControl, AI or public procurement, this talk will have you covered.

    ~~Redacted~~

    Licensed to the public under http://creativecommons.org/licenses/by/4.0

  • Retro-Chips selbst gemacht: Historische Hardware in FPGAs nachbilden 
    Retro-Computing ist heute die Domäne der bekannten Software-Emulatoren. Aber auch die ursprüngliche Hardware selbst kann und sollte dokumentiert und konserviert werden. Ich zeige, was es damit auf sich hat und wie man daheim mit moderatem Einsatz einen ganzen Retro-Computer nachbaut. Mit Hilfe von rekonfigurierbaren Chips klappt das auch weitgehend ohne Löten oder die allgegenwärtigen Arduinos und Raspberry-Pis.

    Der Begriff Maker ist inzwischen eng mit den Arduinos und dem Raspberry-Pi verbunden. Auch wenn es um den Erhalt historischer Systeme geht sind Nachbauten in Form von Emulatoren auf Raspi-Basis ganz vorne dabei. Das ist verständlich, wenn man sieht wie preisgünstig diese Geräte sind, wie viele entsprechende Retro-Projekte
    es gibt und wie einsteigerfreundlich sie sich meistens nutzen lassen.

    Aber neben der klassischen Software gibt es mehr zu erhalten: Die historische Hardware lässt sich leider nicht mal eben auf einen USB-Stick kopieren. Und mit den alten Geräten geht auch das Wissen dahinter verloren und die oft eleganten oder trickreichen Lösungen, die in der Anfangszeit nötig waren, um bezahlbare Hardware mit einfachsten Mitteln zu bauen.

    Ich zeige, wie sich wesentliche Aspekte der Systeme mit Hilfe von konfigurierbarer Hardware erhalten und auf elegante Weise dokumentieren lassen. Ich zeige Euch, wie man mit geringem Materialeinsatz aber viel Neugierde Retro-Systeme in FPGA-Chips wieder zum Leben erweckt. Was braucht man? Wo bekommt man es her? Und wie wird daraus ein Heimcomputer der 80er? Das zeige ich unter anderem am konkreten Beispiel des NanoMig, der Nachbildung eines Commodore Amiga Homecomputer, dessen gesamte Hardware sich in einem modernen FPGA unterbringen lässt … ganz ohne Arduino- oder Raspberry-Pi-Unterbau.

    FPGA-Retrocomputing ist in den letzten zehn Jahren populär geworden. Auch das von mir vor gut zehn Jahren entworfene MiST-Board aber vor allem das darauf folgende MiSTer-Projekt hatten ihren Anteil daran. Diese Systeme werden oft als etwas fortschrittlichere Emulatoren (miss-)verstanden, hinter ihnen steckt aber vor allem eine als rekonfigurierbare FPGA-Hardware bezeichnete recht ungewöhnliche Technik abseits üblicher CPUs, Speicher- und Peripheriebausteine.

    Licensed to the public under http://creativecommons.org/licenses/by/4.0

Viel Spaß beim virtuellen Besuch der 38C3 Konferenz des Chaos Computer Club und ein erfolgreiches Jahr 2025.

Frohe Weihnachten und ein erfolgreiches Jahr 2025

Weihnachtsbaum mit Krippe

Frohe Weihnachten und ein glückliches neues Jahr! 🎄✨

Liebe Leserinnen und Leser,

wieder neigt sich ein ereignisreiches Jahr dem Ende entgegen. Die Zeit der Besinnlichkeit und des Miteinanders lädt uns ein, innezuhalten, Dankbarkeit zu zeigen und neue Kraft für die kommenden Herausforderungen zu schöpfen.

Ich möchte mich an dieser Stelle herzlich bei euch bedanken – für euer Interesse, eure Treue und die vielen inspirierenden Momente, die ihr mir das ganze Jahr über geschenkt habt. Ihr seid der Grund, warum ich mit so viel Leidenschaft und Freude an meinem Blog arbeite!

Weihnachten – ein Fest der Liebe und Hoffnung

Lasst uns die Weihnachtszeit und das neue Jahr nutzen, um Zeit mit unseren Liebsten zu verbringen, die kleinen Freuden des Lebens zu genießen und neue Inspiration für das kommende Jahr zu finden. Ob bei einer gemütlichen Tasse Tee, dem Duft von frisch gebackenen Plätzchen oder dem warmen Licht des Weihnachtsbaumes – diese Momente schenken uns wertvolle Erinnerungen, die bleiben.

Ein Blick nach vorn – das Jahr 2025 erwartet uns

Das neue Jahr steht vor der Tür, und mit ihm neue Chancen, Ideen und Erlebnisse. Lasst uns gemeinsam mutig in die Zukunft blicken und mit Optimismus an unseren Zielen arbeiten.

Ich wünsche euch und euren Familien ein friedliches und frohes Weihnachtsfest sowie einen guten Rutsch in ein gesundes, glückliches und erfolgreiches neues Jahr.

Vielen Dank, dass ihr Teil meiner kleinen Blog-Gemeinschaft seid. Ich freue mich darauf, auch im nächsten Jahr wieder spannende Inhalte mit euch zu teilen und gemeinsam zu wachsen.

Herzliche Grüße,

Karl Högerl

Binärpräfix und Dezimalpräfix

Binär- und Dezimalpräfixe spielen eine zentrale Rolle in der Technik, um Datenmengen und Speicherkapazitäten genau zu beschreiben. Da Computer auf binären Systemen basieren, ermöglichen Binärpräfixe eine präzise Darstellung von Speichergrößen, die den tatsächlichen Speicher-anforderungen entsprechen. Dezimalpräfixe hingegen folgen dem metrischen System und sind ideal für allgemeine technische Anwendungen, da sie eine einfache Skalierung und Verständlichkeit bieten.

Die Unterscheidung zwischen beiden Präfixarten ist entscheidend, um Missverständnisse zu vermeiden und spezifische Anforderungen in der digitalen Datenverarbeitung und Kommunikation exakt darzustellen. Der Unterschied zwischen Binärpräfixen und Dezimalpräfixen liegt in der Basis, auf der sie beruhen.

Aufbau des Dezimalpräfix

Der Dezimalpräfix basierend auf der Zehnerpotenz und nutzt die Basis 10. Dieses Zahlensystem wird meist in der allgemeinen Technik und bei Datenübertragungsraten verwendet, wie z. B. bei Netzwerkgeschwindigkeiten.

1 kB (Kilobyte) = 10³ Byte = 1000 Byte
1MB (Megabyte) = 10⁶ Byte = 1000 * 1000 Byte
1GB (Gigabyte) = 10⁹ Byte = 1000 * 1000 * 1000 Byte

Aufbau des Binärpräfix

Der Binärpräfix basiert auf der Zweierpotenz und nutzt die Basis 2. Es wird in der Regel bei IT Systemen verwendet, um z.B. Speicherkapazitäten und Arbeitsspeicher von Computern und weiteren IT Geräten anzugeben, da diese Systeme binär organisiert sind.

1 KiB (Kibibyte) = 2¹⁰ Byte = 1024 Byte
1 MiB (Mebibyte) = 2²⁰ Byte = 1024 * 1024 Byte
1 GiB (Gibibyte) = 2³⁰ Byte = 1024 * 1024 * 1024 Byte

(SI) Dezimalpräfix (IEC) Binärpräfix
Byte B 1 Byte B 1
Kilobyte kB 1000=10³ Kibibyte KiB 1024=2¹⁰
Megabyte MB 1000²=10⁶ Mebibyte MiB 1024²=2²⁰
Gigabyte GB 1000³=10⁹ Gibibyte GiB 1024³=2³⁰
Terabyte TB 1000⁴=10¹² Tebibyte TiB 1024⁴=2⁴⁰
Petabyte PB 1000⁵=10¹⁵ Pebibyte PiB 1024⁵=2⁵⁰
Exabyte EB 1000⁶=10¹⁸ Exbibyte EiB 1024⁶=2⁶⁰

SI heißt System International und basiert auf der Maßeinheiten des metrischen Systems.
IEC heißt Internationale Elektrotechnische Kommission und ist die Normierungsorganisation für die Elektrotechnik und Elektronik

Fazit

Binärpräfixe (z. B. KiB, MiB, GiB) sind präzise und basieren auf Zweierpotenzen, die die tatsächliche Speicherkapazität im binären System darstellen. Dezimalpräfixe (z. B. kB, MB, GB) sind standardisiert für allgemeine und technische Anwendungen und basieren auf Zehnerpotenzen.

Die Unterscheidung ist wichtig, um Missverständnisse über die tatsächliche Größe und Leistung von Speichermedien und Übertragungsraten zu vermeiden.

Einführung in das Dualsystem

Das Dualsystem wird auch Binärsystem genannt. Es ist ein Zahlensystem, das nur die Ziffern 0 und 1 verwendet. Im Gegensatz zum dezimalen Zahlensystem, das auf Basis 10 aufgebaut ist und zehn Ziffern (0-9) nutzt, basiert das Dualsystem auf Basis 2. In der digitalen Welt spielt das Dualsystem eine zentrale Rolle, da Computer und elektronische Geräte Informationen in Form von binären Daten verarbeiten.

Grundlagen des Dualsystems

Im Dualsystem wird jede Position in einer Zahl mit einer Potenz von 2 multipliziert, anstatt mit einer Potenz von 10, wie im Dezimalsystem. Jede Stelle repräsentiert entweder den Wert 0 oder 1, und die Position der Stelle bestimmt, mit welcher Potenz von 2 sie multipliziert wird.

Beispiel der Umrechnung der binären Zahl 1011 in das Dezimalsystem

Um eine binäre Zahl wie 1011 in das Dezimalsystem umzuwandeln, multiplizieren wir jede Ziffer mit der entsprechenden Potenz von 2, von rechts nach links beginnend:

Dezimal 8 4 2 1
11 d entspricht 2⁰
1011 b 1 0 1 1

Zusammenaddiert ergibt das: (8 + 0 + 2 + 1 = 11 Dezimal).

Beispiel wie Computer das Dualsystem nutzen

Computer arbeiten mit elektrischen Signalen, die nur zwei Zustände annehmen können: Ein (1) und Aus (0). Diese beiden Zustände sind ideal für das Dualsystem, da nur die Ziffern 0 und 1 verwendet werden. Ein Bit ist die kleinste Informationseinheit und kann entweder den Wert 0 oder 1 annehmen. Jede Information, die ein Computer verarbeitet, wird in Form von Bits gespeichert und verarbeitet.

Beispiel der Speicherung des Buchstabens „A“

Computer speichern Textzeichen mithilfe von Codes wie dem ASCII-Code (American Standard Code for Information Interchange). Im ASCII-Code wird der Buchstabe „A“ durch die Dezimalzahl 65 dargestellt. Um diese Zahl zu speichern, konvertiert der Computer sie ins Binärsystem:

Der Buchstabe A ist 65 in Binärdarstellung

65 geteilt durch 2 ergibt 32 Rest 1 (niedrigste Binärstelle)
32 geteilt durch 2 ergibt 16 Rest 0
16 geteilt durch 2 ergibt 8 Rest 0
8 geteilt durch 2 ergibt 4 Rest 0
4 geteilt durch 2 ergibt 2 Rest 0
2 geteilt durch 2 ergibt 1 Rest 0
1 geteilt durch 2 ergibt 0 Rest 1 (höchste Binärstelle)

Diese Reihenfolge von Bits (1000001) entspricht dem Buchstaben „A“.

Mathematische Operationen im Dualsystem

Das Rechnen im Dualsystem ähnelt dem Rechnen im Dezimalsystem, mit dem Unterschied, dass alle Berechnungen auf Basis 2 erfolgen.

Fazit

Das Dualsystem ist die Basis der digitalen Technik und der Datenverarbeitung. Mit nur zwei Zuständen 0 und 1 lässt sich die gesamte digitale Kommunikation und Speicherung abbilden.

Das Dualsystem hat somit entscheidende Vorteile, die es zur idealen Grundlage für digitale Technologien machen. Es bietet eine einfache, robuste und fehlertolerante Basis für die Datenverarbeitung, die sich effizient speichern und verarbeiten lässt. Diese Eigenschaften machen das Dualsystem unersetzlich für die moderne digitale Datenverarbeitung und die Konstruktion von Computern.

Schutzmaßnahmen bei elektrischen Anlagen nach VDE 0100-600

Wenn elektrische Geräte und Anlagen in Betrieb genommen, gewartet oder repariert werden sollen, gibt es wichtige Punkte zur Sicherheit und zum Personenschutz zu beachten. Einen Anhaltspunkt dazu gibt die VDE 0100-600. Es darf nur qualifiziertes Personal, wie Elektrofachkräfte, diese Arbeiten durchführen.

Elektrofachkräfte sind zum Beispiel Elektrotechniker oder Ingenieure, die über die erforderliche Ausbildung und Kenntnisse verfügen. Es ist wichtig, die Sicherheitsstandards einzuhalten, um Gefahren zu vermeiden.

Elekrische Gefahren

– Elektrischer Schlag
– Stromdurchfluss durch den Körper
– Verbrennungen
– Lichtbogenbildung
– Explosions- und Brandgefahr
– Mechanische Gefahren
– Sekundäre Gefahren

Schutzmaßnahmen nach VDE 0100-600

Nach VDE 0100-600 umfassen die Haupttätigkeiten zur Vermeidung von Gefahren an elektrischen Anlagen folgende Maßnahmen:

Isolationsprüfung

Stellen Sie sicher, dass Leitungen und Bauteile ordnungsgemäß isoliert sind. Dies verhindert elektrische Schläge und Verletzungen.

Durchgängigkeit des Schutzleiters

Überprüfen Sie, um Erdungsfehler zu vermeiden, dass der Schutzleiter korrekt angeschlossen und funktionstüchtig ist.

Fehlerschutz durch RCD (FI-Schalter)

Der Einsatz von Fehlerstromschutzschaltern und deren korrekte Funktion verhindern Stromfluss durch den Körper.

Spannungsfreiheit feststellen

Bevor Arbeiten an elektrischen Anlagen durchgeführt werden stellen Sie sicher, dass an der Anlage keine Spannung anliegt. Die Anlage kann z.B. vor Beginn von Arbeiten  geerdet werden. Auch eine Sicherung vorveresehenlichen Einschalten ist sinnvoll.

Schutz durch geeignete Abschaltbedingungen

Um Überhitzung und Brände zu vermeiden sollten Sie die Anlage so absichern, dass die Anlage bei Überlast oder Fehlern automatisch abschaltet.

Anlagenkennzeichnung und Zugänglichkeit sicherstellen

Kennzeichnen Sie und Sichern Sie die Anlage so, dass sie nur von autorisiertem Fachpersonal betreten und bedient werden kann. Ein Hinweisschild vor der Beginn von Wartungs- und Reparaturarbeiten ist anzubringen.

Mechanischer Schutz und Abdeckung

Nutzen Sie isolierende Decken zum Schutz vor spannungsführenden Teilen nach dem Entfernen von Abdeckungen und Gehäusen, um versehentlichen Kontakt mit spannungsführenden Teilen zu verhindern.

Prüfprotokolle und regelmäßige Wartung

Dokumentieren Sie alle Prüfungen, Reparaturen und regelmäßige Wartungen, um die langfristige Sicherheit der Anlage sicherzustellen.

Fazit

Diese Maßnahmen gewährleisten die Sicherheit, sowohl bei der Installation, bei Reparatur, Wartung, als auch im Betrieb und sind essenziell für die Einhaltung der VDE-Vorschriften.

Quellen zur Datensicherheit und Datenschutz

Quellen für Datenschutz und Datensicherheit

Datenschutz und Datensicherheit spielen in unserer Gesellschaft eine wichtige Rolle, hilft aber nicht gegen Zensur oder Propaganda. Hier sind wichtige Quellen zu Informationssicherheit und Datenschutz in Deutschland.

1. Bundesamt für Sicherheit in der Informationstechnik (BSI)

Das BSI bietet umfassende Informationen zur IT-Sicherheit, Risikomanagement und aktuellen Bedrohungen.  Die Handlungsempfehlungen des IT Grundschutzes können von Unternehmen und Privatpersonen genutzt werden.

2. Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI)

Die offizielle Seite des BfDI bietet Leitlinien und rechtliche Informationen zum Datenschutz in Deutschland, insbesondere in Bezug auf die DSGVO und nationale Datenschutzgesetze.

3. Chaos Computer Club (CCC)

Der Chaos Computer Club ist eine der bekanntesten Organisationen für Informationssicherheit und Datenschutz in Deutschland. Der CCC ist eine unabhängige, zivilgesellschaftliche Organisation, die sich stark für digitale Rechte, Informationsfreiheit und ethische Fragestellungen im Bereich IT-Sicherheit einsetzt.

4. Heise Security

Heise bietet in einem Portal aktuelle Berichte und Nachrichten zu IT-Sicherheit, Datenschutz und Cybersecurity-Trends, speziell für die deutsche IT-Landschaft.

6. Datenschutzkonferenz (DSK)

Die DSK ist ein Gremium der deutschen Datenschutzbehörden, das regelmäßig Berichte und Stellungnahmen zu aktuellen Datenschutzthemen veröffentlicht.

7. Datenschutz Schleswig-Holstein (ULD)

Das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) bietet Informationen und Leitlinien zu Datenschutzthemen für Unternehmen und Bürger.

8. IHK – Industrie- und Handelskammer (IT-Sicherheit und Datenschutz)

Die IHK bietet Leitfäden und Veranstaltungen für Unternehmen, die ihre IT-Sicherheits- und Datenschutzmaßnahmen verbessern wollen.

9. eco – Verband der Internetwirtschaft e.V.

eco bietet regelmäßige Veröffentlichungen und Leitfäden zu IT-Sicherheits- und Datenschutzthemen in der deutschen Internetwirtschaft.

10. Bitkom – Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V.

Bitkom stellt Berichte und Studien zu Themen wie Cybersicherheit, Datenschutz und IT-Compliance in Deutschland bereit.

Diese Quellen bieten umfassende Informationen, Best Practices und rechtliche Hinweise zu den Themen Informationssicherheit und Datenschutz speziell in Deutschland.

Weiterentwicklung des Roboter Fourier GR-2

Robotik

Das 2015 gegründete Unternehmen Fourier hat sich der Entwicklung von Robotern verschrieben, die über Geschicklichkeit und Intelligenz für die medizinische Rehabilitation, die wissenschaftliche Forschung und weitere gängige Anwendungen in der realen Welt eingesetzt werden können.

Fourier bietet Robotik-Dienstleistungen für mehr als 2000 Organisationen und Krankenhäuser in mehr als 40 Ländern und Regionen rund um den Globus. Dabei arbeitet Fourier weltweit mit wissenschaftlichen Einrichtungen, wie zum Beispiel die ETH Zürich, Tsinghua University Peking, Carnegie Mellon University und der Simon Fraser University, zusammen.

Roboter Modell Fourier GR-2

Am 26.09.2024 wurde das neue Roboter Modell GR-2 vorgestellt. Ein Jahr Weiterentwicklung steckt in diesem Roboter.

Die neue Plattform unterstützt Frameworks wie NVIDIA Isaac Lab und Mujoco und ermöglicht es Entwicklern, sich auf Innovationen zu konzentrieren, ihre Arbeitsabläufe zu rationalisieren und die Robotikentwicklung zu verbessern.

„GR-2 ist ein großer Schritt in die Zukunft der humanoiden Robotik“, sagt Alex Gu, CEO von Fourier. „Wir arbeiten mit Leidenschaft daran, den intuitivsten verkörperten Agenten für KI zu entwickeln, der es ihr ermöglicht, sich auf eine nie dagewesene Weise mit der physischen Welt auseinanderzusetzen. Fourier freut sich auf Entwickler, Forscher und Unternehmen, die sich uns auf dieser unglaublichen Reise anschließen möchten.“

Die GRx-Serie von Fourier setzt mit ihrem Schwerpunkt auf der KI-Integration neue Maßstäbe in der humanoiden Robotik. Im Hinblick auf die künftige Entwicklung humanoider Roboter skizziert das Unternehmen sechs Schlüsselbereiche für die Entwicklung – Fortbewegung, Manipulation, Kognition, bionisches Design, Benutzererfahrung und kommerzielle Verwertbarkeit. Die Einführung des GR-2 markiert einen neuen Schritt in Richtung zukünftiger Durchbrüche in der Mensch-Roboter-Kollaboration.

Der GR-2 von Fourier ist ein humanoider Roboter, der speziell für fortschrittliche Anwendungen in der Forschung und in der Industrie entwickelt wurde. Er besitzt 12 Freiheitsgrade, was ihm eine hohe Beweglichkeit verleiht. Besonders hervorzuheben sind seine aktiven Hände, die komplexe Greifbewegungen ermöglichen, sowie die präzise Steuerung durch VR-Technologien. Die Fähigkeit des GR-2, mit FSA-Aktuatoren zu arbeiten, gibt ihm die Flexibilität, dynamische Bewegungen auszuführen, die besonders für anspruchsvolle Aufgaben in verschiedenen Umgebungen benötigt werden.

Ein entscheidender Vorteil des GR-2 ist die Lead-Through-Programmierung, die es Benutzern ermöglicht, dem Roboter Bewegungsabläufe durch direkte Demonstration beizubringen. Dies macht den Roboter besonders benutzerfreundlich und reduziert die Notwendigkeit von komplexen Programmierungen. Durch seine fortschrittliche Sensorik ist der GR-2 in der Lage, präzise auf seine Umgebung zu reagieren und somit sowohl sicher als auch effizient zu arbeiten.

Seine kompakte Bauweise macht den GR-2 besonders vielseitig einsetzbar. Er kann in engen industriellen Umgebungen eingesetzt werden und bietet durch seine aktiven Hände und präzise Steuerung zahlreiche Einsatzmöglichkeiten, von der Montage kleiner Teile bis hin zur Durchführung von Forschungsaufgaben, die exakte Bewegungsabläufe erfordern. Insbesondere in Bereichen wie der Produktion, der Logistik oder der medizinischen Forschung kann der GR-2 wertvolle Unterstützung bieten.

Vorteile des Fourier GR-2

Im Vergleich zu anderen humanoiden Robotern zeichnet sich der GR-2 durch seine modulare Struktur und seine fortschrittliche Bewegungsfähigkeit aus. Er ist in der Lage, nicht nur statische Aufgaben, sondern auch dynamische Interaktionen in Echtzeit auszuführen. Diese Fähigkeiten machen ihn zu einer wertvollen Ressource in Laboren und industriellen Anwendungen, wo Präzision und Anpassungsfähigkeit gefragt sind.

Vergleichbare Produkte in Europa

Ein ähnlicher Roboter in Europa ist EVE von 1X Robotics (ehemals Halodi Robotics), der ebenfalls für Alltags- und industrielle Anwendungen entwickelt wurde. EVE ist auf Sicherheit ausgelegt und kann in Umgebungen arbeiten, in denen Menschen und Maschinen kooperieren.

PAL Robotics aus Spanien bietet ebenfalls humanoide Roboter wie TALOS und TIAGo, die in verschiedenen industriellen und kommerziellen Bereichen eingesetzt werden können. Sie sind modular aufgebaut und bieten flexible Einsatzmöglichkeiten, ähnlich wie der GR-2.

Weitere Artikel

Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

RAID 10 System

RAID Systeme

RAID 10 wird auch als RAID 1+0 bezeichnet. Es ist eine Kombination aus RAID 1 (Mirroring) und RAID 0 (Striping). Daher bietet RAID 10 sowohl hohe Leistung als auch Datensicherheit, indem es die Vorteile beider RAID-Level vereint.

Struktur und Funktionsweise

Schema von RAID 10

RAID 10 setzt sich aus mindestens vier Festplatten zusammen. Zuerst werden die Daten gespiegelt, wie bei RAID 1, was bedeutet, dass jede Festplatte eine exakte Kopie der Daten hat. Anschließend werden diese gespiegelten Paare über ein Striping-Verfahren (RAID 0) organisiert, das die Daten in Blöcken auf die Festplatten verteilt. Diese Kombination bietet gleichzeitig Redundanz und Geschwindigkeit.

Vorteile von RAID 10

Durch die Spiegelung der Daten ist RAID 10 besonders robust gegenüber dem Ausfall von Festplatten. Sollte eine Festplatte in einem gespiegelten Paar ausfallen, sind die Daten immer noch auf der anderen Festplatte des Paares vorhanden. Das bietet eine hohe Fehlertoleranz, da RAID 10 den Verlust von bis zu einer Festplatte pro gespiegelter Gruppe ohne Datenverlust verkraften kann.

Die Striping-Technik von RAID 0 sorgt dafür, dass die Daten auf mehrere Festplatten verteilt werden, was zu einer erhöhten Lese- und Schreibgeschwindigkeit führt. RAID 10 ist deshalb besonders geeignet für Anwendungen, die sowohl hohe I/O-Leistung als auch Datensicherheit erfordern. Das wären zum Beispiel Datenbanken, Webserver oder virtualisierte Umgebungen.

Nachteile von RAID 10

Der größte Nachteil von RAID 10 ist der Bedarf an zusätzlichen Festplatten. Da jede Festplatte gespiegelt wird, beträgt die nutzbare Kapazität nur die Hälfte des gesamten Speicherplatzes. Für Anwender, die sowohl Geschwindigkeit als auch Sicherheit schätzen, ist der Einsatz zusätzlicher Hardware jedoch gerechtfertigt.

Fazit

RAID 10 bietet eine ideale Mischung aus Leistung und Datensicherheit, besonders in unternehmenskritischen Umgebungen. Durch die Kombination von Striping und Mirroring liefert es schnelle Lese- und Schreibzugriffe, während es gleichzeitig gegen Festplattenausfälle schützt. Die einzige Einschränkung sind die erhöhten Hardwarekosten, da die Redundanz eine Verdopplung der Speicherhardware erfordert. Für Unternehmen, die jedoch Wert auf Geschwindigkeit und Ausfallsicherheit legen, ist RAID 10 eine ausgezeichnete Wahl.

ITIL – Das Service Design

ITIL

Eines der wichtigsten Ziele des Service Designs von ITIL ist die Konzeption, Entwicklung, Integration und Bereitstellung von neuen oder geänderten Services, nach den Anforderungen des Auftraggebers und unter Berücksichtigung der Bedürfnisse der betroffenen Akteure.

Ziele des ITIL Service Design

  1. Für die Geschäftsanforderungen neue oder geänderte IT Dienste entwickeln
  2. Planung und Bereitstellung von hochwertigen Prozessen die Kunden und Auftraggeber gerecht werden
  3. Risiken identifizieren und minimieren
  4. Standardisierte, sichere und ausfallsichere IT-Infrastrukturen, Anwendungen, Organisationen entwerfen
  5. Erstellung und Pflege der Dokumentation der qualitätsgetriebenen Dienstleistungen, Architekturen, Richtlinien und Prozessen
  6. Weiterentwicklung der Fertigkeiten und Fähigkeiten

TCO im Kontekt des Service Design

Ein grundsätzliches Ziel des ITIL Service Design ist es,  die Total Cost of Ownership (TCO) zu minimieren. Dazu werden Kostenaspekte bei der Planung neuer oder geänderter Dienste frühzeitig berücksichtigt, um langfristig Effizienz und Wertschöpfung zu maximieren. Das TCO im Kontext des ITIL Service Design berücksichtigt die vollständigen Kosten eines IT-Dienstes über seinen gesamten Lebenszyklus hinweg und schliesst die Entwicklung, Implementierung, Betrieb, Wartung und Ausmusterung ein.

Die 4 P der IT-Service Managementplanung

Bei der Planung werden die 4 P berücksichtigt.

  1. People: Mitarbeiter mit den richtigen Fähigkeiten und Verantwortlichkeiten einsetzen.
  2. Processes: Effektive und effiziente Abläufe zur Bereitstellung und Unterstützung von IT-Services.
  3. Products: Technologien und Werkzeuge nutzen, die für die Erbringung der Services notwendig sind.
  4. Partners: Externe Anbieter oder Partner gewinnen, die die IT-Services unterstützen oder ergänzen.

ITIL - 4 P der IT-Service Management Planung

Diese 4 P’s gewährleisten eine ganzheitliche und erfolgreiche IT-Service-Planung.

Die fünf Hauptvorteile des IT Service Designs nach ITIL

  • Bessere Ausrichtung an Geschäftsanforderungen: Die IT-Services werden so gestaltet, dass sie die Geschäftsziele und -anforderungen optimal unterstützen.
  • Höhere Servicequalität: Durch klar definierte und standardisierte Prozesse wird die Qualität der Services gesteigert.
  • Kostenreduktion: Mit effektiven Service-Design-Prozessen minimieren sich unnötige Ausgaben und optimieren zudem die Ressourcennutzung.
  • Verbesserte Risikomanagement: Die Risiken in Bezug auf Verfügbarkeit, Sicherheit und Kapazität werden frühzeitig erkannt.
  • Effizientere Servicebereitstellung: Gut geplante Services ermöglichen eine schnellere und zuverlässigere Einführung neuer IT-Services.

Konzepte und Aktivitäten beim Service Level Management

Dazu gehört ein ausgefeiltes Konzept des Service Level Managements (SLM) mit wichtigen Aktivitäten des Service Level Managements.

  • Service Level Agreements (SLAs) erstellen und pflegen: Definition und Verwaltung von SLAs, um sicherzustellen, dass die IT-Services den Kundenanforderungen entsprechen.
  • Überwachung und Messung der Service-Performance: Regelmäßiges Überprüfen der erbrachten Services im Vergleich zu den vereinbarten SLAs.
  • Service Reviews: Durchführung von regelmäßigen Meetings mit Kunden und Stakeholdern, um die Einhaltung der SLAs zu bewerten und mit dem kontinuierlichen Verbesserungsprozess (KVP) Anpassungen vorzunehmen.
  • Management von Verbesserungsmaßnahmen: Fortlaufende Identifikation und Umsetzung von Verbesserungen zur Optimierung der Servicequalität.
  • Berichterstattung: Regelmäßige Berichte zur Service-Performance für Kunden und Management erstellen.

 

Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

Robotik

Die chinesische Technologiebranche hat einen bemerkenswerten Meilenstein mit der Vorstellung des GR-1, eines humanoiden Roboters von dem Unternehmen Fourier Intelligence erreicht.

Präsentiert auf der World Artificial Intelligence Conference (WAIC) in Shanghai, beeindruckte dieser Roboter mit seiner Fähigkeit, auf zwei Beinen mit 5 km/h zu laufen und dabei eine Last von 50 kg zu tragen. Die Entstehungsgeschichte von Fourier Intelligence, das ursprünglich 2015 mit einem Fokus auf Rehabilitationsrobotik gegründet wurde, zeugt von einer beeindruckenden Diversifikation in ihrem Angebot.

Roboter als Begleiter und Helfer in China

Fourier Intelligence teilt die Vision von Tesla CEO Elon Musk, der humanoiden Robotern eine Rolle in alltäglichen Aufgaben und als Begleiter zuschreibt. Das Unternehmen plant, die GR-1-Roboter für Forschung und Entwicklung einzusetzen, mit dem Ziel, bis Ende des Jahres 2023 in die Massenproduktion zu gehen. Die Vision ist, dass in den nächsten fünf bis zehn Jahren humanoide Roboter zum integralen Bestandteil des täglichen Lebens werden können.

Sicherheitseinsatz von Robotern in den USA

In den USA gewinnen Sicherheitsroboter, insbesondere für den Einsatz in Reaktion auf steigende Kriminalitätsraten, zunehmend an Popularität. Der globale Sicherheitsrobotermarkt wird voraussichtlich bis 2030 auf 31,08 Milliarden Dollar anwachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 12,8 %. Das ist für Börsenspekulanten und Unternehmen wie Black Rock lukrativ.

Einer der Vorreiter auf diesem Gebiet ist Knightscope, Inc.. Es ist ein fortschrittliches Unternehmen der Sicherheitstechnologie aus dem Silicon Valley. Gegründet im Jahr 2013, nutzt das Unternehmen Technologien wie Autonomie, Robotik, künstliche Intelligenz und Elektrofahrzeugtechnik, um einzigartige Lösungen zu entwickeln. Ihre Technologie hat bereits über 2,3 Millionen Stunden im realen Feldeinsatz verbracht. Zu den Kunden von Knightscope gehören hochkarätige Organisationen wie das New York Police Department (NYPD) und das New York City Fire Department (FDNY).

Knightscope hat im Laufe des Jahres mehrere bedeutende Verträge abgeschlossen, darunter einen mit der Rutgers University in New Jersey sowie einen Pilotvertrag mit dem NYPD für einen K5-Roboter, der eine U-Bahn-Station in Manhattan patrouilliert.

Sicherheitseinsatz von Robotern in der EU

In der Europäischen Union steht die Robotik ebenfalls im Fokus, insbesondere in Bezug auf Sicherheitsanwendungen. Die EU hat in den letzten Jahren in Forschung und Entwicklung im Bereich der Robotertechnologie investiert, mit dem Ziel, die Effizienz und Sicherheit in verschiedenen Sektoren zu verbessern. Obwohl spezifische Pläne und Entwicklungen variieren können, konzentriert sich die EU in der Regel auf die Integration von Robotertechnologie in Bereichen wie der öffentlichen Sicherheit, der Industrie und der Gesundheitsversorgung.

Fazit

Der Fortschritt im Bereich der Robotik, insbesondere der humanoiden Roboter wie der GR-1 aus China und Sicherheitsroboter in den USA und der EU, zeigt das enorme Potenzial dieser Technologien. Während China sich auf die Entwicklung von humanoiden Robotern konzentriert, fokussieren die USA und die EU auf den Einsatz von Robotern zur Verbesserung der öffentlichen Sicherheit und Effizienz.

Quellen
1. Yahoo Finance – Chinese Startup Debuts World’s First Mass-Produced Humanoid Robot at WAIC https://finance.yahoo.com/news/chinese-startup-debuts-world-first-130000324.html?fr=sycsrp_catchall&guccounter=1 

2.  https://fourierintelligence.com

3. https://www.knightscope.com

 

 

Datenbank Modelle ACID und BASE im Vergleich

Datenbanksysteme

In der Welt der Datenbanktechnologien sind zwei zentrale Konzepte weit verbreitet: das ACID-Modell, das typischerweise mit relationalen (SQL) Datenbanken assoziiert wird. Das BASE-Modell wird oft mit NoSQL-Datenbanken in Verbindung gebracht. Diese Modelle definieren die grundlegenden Eigenschaften, die von den jeweiligen Datenbanksystemen erwartet werden.

ACID-Modell

ACID steht für Atomicity, Consistency, Isolation und Durability. Dieses Modell wird in relationalen Datenbankmanagementsystemen (RDBMS) eingesetzt, um die Zuverlässigkeit und Genauigkeit von Transaktionen zu gewährleisten.

  • Atomicity (Atomarität): Jede Transaktion wird als eine einzelne Einheit betrachtet, die entweder vollständig erfolgreich ist oder gar nicht ausgeführt wird.
  • Consistency (Konsistenz): Transaktionen führen eine Datenbank von einem konsistenten Zustand in einen anderen über, ohne die Datenintegrität zu verletzen.
  • Isolation (Isolierung): Gleichzeitig ausgeführte Transaktionen beeinflussen sich nicht gegenseitig.
  • Durability (Dauerhaftigkeit): Sobald eine Transaktion abgeschlossen ist, bleiben die Änderungen dauerhaft erhalten, auch im Falle eines Systemausfalls.

BASE-Modell

BASE steht für Basically Available, Soft State und Eventually Consistent. Dieses Modell wird in NoSQL-Datenbanksystemen verwendet, um Flexibilität, Skalierbarkeit und Verfügbarkeit in verteilten Systemen zu gewährleisten.

  • Basically Available (Grundsätzlich verfügbar): Das System garantiert die Verfügbarkeit von Daten, auch wenn einige Teile des Systems ausgefallen sind.
  • Soft State (Weicher Zustand): Der Zustand des Systems kann sich mit der Zeit ändern, auch ohne Benutzereingriffe.
  • Eventually Consistent (Schließlich konsistent): Das System stellt sicher, dass, wenn keine neuen Updates mehr erfolgen, alle Replikationen der Datenbank nach einiger Zeit konsistent sind.

Vergleichstabelle

Eigenschaft ACID-Modell BASE-Modell
Datenintegrität Hoch Variabel
Flexibilität Gering Hoch
Skalierbarkeit Vertikal Horizontal
Konsistenz Strenge Konsistenz Eventuelle Konsistenz
Transaktionsmanagement Strikt und zuverlässig Locker und anpassungsfähig
Einsatzgebiet Traditionelle Unternehmensanwendungen Verteilte, skalierende Anwendungen

Fazit

Das ACID-Modell bietet hohe Datenintegrität und Zuverlässigkeit, was es ideal für Anwendungen macht, die strenge Konsistenz und Transaktionssicherheit erfordern, wie z.B. Bankensysteme. Allerdings kann es aufgrund seiner strengen Regeln zu Einschränkungen in Bezug auf Flexibilität und Skalierbarkeit kommen.

Im Gegensatz dazu bietet das BASE-Modell eine hohe Flexibilität und Skalierbarkeit, was es ideal für verteilte Systeme und Anwendungen mit großem Datenvolumen und hohen Benutzerzahlen macht, wie soziale Netzwerke oder Echtzeit-Analysen. Die eventuelle Konsistenz kann jedoch zu Herausforderungen in Anwendungen führen, die eine sofortige Datenkonsistenz erfordern.

Letztendlich hängt die Wahl zwischen ACID- und BASE-Modellen von den spezifischen Anforderungen und dem Kontext der jeweiligen Anwendung ab. Beide Modelle haben ihre Berechtigung und bieten unterschiedliche Vorteile, die je nach Einsatzgebiet entscheidend sein können.