Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

KI übernimmt die MSM und das Narrativ

Die chinesische Technologiebranche hat einen bemerkenswerten Meilenstein mit der Vorstellung des GR-1, eines humanoiden Roboters von dem Unternehmen Fourier Intelligence erreicht.

Präsentiert auf der World Artificial Intelligence Conference (WAIC) in Shanghai, beeindruckte dieser Roboter mit seiner Fähigkeit, auf zwei Beinen mit 5 km/h zu laufen und dabei eine Last von 50 kg zu tragen. Die Entstehungsgeschichte von Fourier Intelligence, das ursprünglich 2015 mit einem Fokus auf Rehabilitationsrobotik gegründet wurde, zeugt von einer beeindruckenden Diversifikation in ihrem Angebot.

Roboter als Begleiter und Helfer in China

Fourier Intelligence teilt die Vision von Tesla CEO Elon Musk, der humanoiden Robotern eine Rolle in alltäglichen Aufgaben und als Begleiter zuschreibt. Das Unternehmen plant, die GR-1-Roboter für Forschung und Entwicklung einzusetzen, mit dem Ziel, bis Ende des Jahres 2023 in die Massenproduktion zu gehen. Die Vision ist, dass in den nächsten fünf bis zehn Jahren humanoide Roboter zum integralen Bestandteil des täglichen Lebens werden können.

Sicherheitseinsatz von Robotern in den USA

In den USA gewinnen Sicherheitsroboter, insbesondere für den Einsatz in Reaktion auf steigende Kriminalitätsraten, zunehmend an Popularität. Der globale Sicherheitsrobotermarkt wird voraussichtlich bis 2030 auf 31,08 Milliarden Dollar anwachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 12,8 %. Das ist für Börsenspekulanten und Unternehmen wie Black Rock lukrativ.

Einer der Vorreiter auf diesem Gebiet ist Knightscope, Inc.. Es ist ein fortschrittliches Unternehmen der Sicherheitstechnologie aus dem Silicon Valley. Gegründet im Jahr 2013, nutzt das Unternehmen Technologien wie Autonomie, Robotik, künstliche Intelligenz und Elektrofahrzeugtechnik, um einzigartige Lösungen zu entwickeln. Ihre Technologie hat bereits über 2,3 Millionen Stunden im realen Feldeinsatz verbracht. Zu den Kunden von Knightscope gehören hochkarätige Organisationen wie das New York Police Department (NYPD) und das New York City Fire Department (FDNY).

Knightscope hat im Laufe des Jahres mehrere bedeutende Verträge abgeschlossen, darunter einen mit der Rutgers University in New Jersey sowie einen Pilotvertrag mit dem NYPD für einen K5-Roboter, der eine U-Bahn-Station in Manhattan patrouilliert.

Sicherheitseinsatz von Robotern in der EU

In der Europäischen Union steht die Robotik ebenfalls im Fokus, insbesondere in Bezug auf Sicherheitsanwendungen. Die EU hat in den letzten Jahren in Forschung und Entwicklung im Bereich der Robotertechnologie investiert, mit dem Ziel, die Effizienz und Sicherheit in verschiedenen Sektoren zu verbessern. Obwohl spezifische Pläne und Entwicklungen variieren können, konzentriert sich die EU in der Regel auf die Integration von Robotertechnologie in Bereichen wie der öffentlichen Sicherheit, der Industrie und der Gesundheitsversorgung.

Fazit

Der Fortschritt im Bereich der Robotik, insbesondere der humanoiden Roboter wie der GR-1 aus China und Sicherheitsroboter in den USA und der EU, zeigt das enorme Potenzial dieser Technologien. Während China sich auf die Entwicklung von humanoiden Robotern konzentriert, fokussieren die USA und die EU auf den Einsatz von Robotern zur Verbesserung der öffentlichen Sicherheit und Effizienz.

Quellen
1. Yahoo Finance – Chinese Startup Debuts World’s First Mass-Produced Humanoid Robot at WAIC https://finance.yahoo.com/news/chinese-startup-debuts-world-first-130000324.html?fr=sycsrp_catchall&guccounter=1 

2.  https://fourierintelligence.com

3. https://www.knightscope.com

 

 

Datenbank Modelle ACID und BASE im Vergleich

Datenbanksysteme

In der Welt der Datenbanktechnologien sind zwei zentrale Konzepte weit verbreitet: das ACID-Modell, das typischerweise mit relationalen (SQL) Datenbanken assoziiert wird. Das BASE-Modell wird oft mit NoSQL-Datenbanken in Verbindung gebracht. Diese Modelle definieren die grundlegenden Eigenschaften, die von den jeweiligen Datenbanksystemen erwartet werden.

ACID-Modell

ACID steht für Atomicity, Consistency, Isolation und Durability. Dieses Modell wird in relationalen Datenbankmanagementsystemen (RDBMS) eingesetzt, um die Zuverlässigkeit und Genauigkeit von Transaktionen zu gewährleisten.

  • Atomicity (Atomarität): Jede Transaktion wird als eine einzelne Einheit betrachtet, die entweder vollständig erfolgreich ist oder gar nicht ausgeführt wird.
  • Consistency (Konsistenz): Transaktionen führen eine Datenbank von einem konsistenten Zustand in einen anderen über, ohne die Datenintegrität zu verletzen.
  • Isolation (Isolierung): Gleichzeitig ausgeführte Transaktionen beeinflussen sich nicht gegenseitig.
  • Durability (Dauerhaftigkeit): Sobald eine Transaktion abgeschlossen ist, bleiben die Änderungen dauerhaft erhalten, auch im Falle eines Systemausfalls.

BASE-Modell

BASE steht für Basically Available, Soft State und Eventually Consistent. Dieses Modell wird in NoSQL-Datenbanksystemen verwendet, um Flexibilität, Skalierbarkeit und Verfügbarkeit in verteilten Systemen zu gewährleisten.

  • Basically Available (Grundsätzlich verfügbar): Das System garantiert die Verfügbarkeit von Daten, auch wenn einige Teile des Systems ausgefallen sind.
  • Soft State (Weicher Zustand): Der Zustand des Systems kann sich mit der Zeit ändern, auch ohne Benutzereingriffe.
  • Eventually Consistent (Schließlich konsistent): Das System stellt sicher, dass, wenn keine neuen Updates mehr erfolgen, alle Replikationen der Datenbank nach einiger Zeit konsistent sind.

Vergleichstabelle

Eigenschaft ACID-Modell BASE-Modell
Datenintegrität Hoch Variabel
Flexibilität Gering Hoch
Skalierbarkeit Vertikal Horizontal
Konsistenz Strenge Konsistenz Eventuelle Konsistenz
Transaktionsmanagement Strikt und zuverlässig Locker und anpassungsfähig
Einsatzgebiet Traditionelle Unternehmensanwendungen Verteilte, skalierende Anwendungen

Fazit

Das ACID-Modell bietet hohe Datenintegrität und Zuverlässigkeit, was es ideal für Anwendungen macht, die strenge Konsistenz und Transaktionssicherheit erfordern, wie z.B. Bankensysteme. Allerdings kann es aufgrund seiner strengen Regeln zu Einschränkungen in Bezug auf Flexibilität und Skalierbarkeit kommen.

Im Gegensatz dazu bietet das BASE-Modell eine hohe Flexibilität und Skalierbarkeit, was es ideal für verteilte Systeme und Anwendungen mit großem Datenvolumen und hohen Benutzerzahlen macht, wie soziale Netzwerke oder Echtzeit-Analysen. Die eventuelle Konsistenz kann jedoch zu Herausforderungen in Anwendungen führen, die eine sofortige Datenkonsistenz erfordern.

Letztendlich hängt die Wahl zwischen ACID- und BASE-Modellen von den spezifischen Anforderungen und dem Kontext der jeweiligen Anwendung ab. Beide Modelle haben ihre Berechtigung und bieten unterschiedliche Vorteile, die je nach Einsatzgebiet entscheidend sein können.

 

ITIL – Das Lebenszyklusmodell

ITIL

Das ITIL Lebenszyklusmodell verbessert die strategischen Ziele beim Einsatz in Projekten. Um ein qualitativ hochwertiges Service Ergebnis zu liefern, braucht es eine Struktur im Service Management. Die 5 Phasen des Servicelebenszyklusmodells liefern die Verbesserung.

Service Strategy (Service-Strategie)

In dieser Phase wird die IT-Strategie entwickelt, bei der alle IT-Services mit den Geschäftszielen und -anforderungen in Einklang stehen. Es umfasst die Definition des Marktes, die Entwicklung von strategischen Assets und die Vorbereitung auf die Umsetzung der Strategie.

Service Design (Service-Design)

Es werden Services entworfen und entwickelt, die in der Service-Strategie-Phase identifiziert wurden. Dazu gehören die Architektur, Prozesse, Richtlinien und die Dokumentation. Diese Phase stellt sicher, dass der Service effizient, nachhaltig ist. Es können die vereinbarten Geschäftsziele erfüllt werden.

Service Transition (Service-Übergang)

In der Service-Transition-Phase werden neue oder geänderte Services in die produktive Umgebung überführt. Dies umfasst das Change-, Release- ,  Deployment-, sowie das Risiken Management und eine Service-Knowledge-Base.

Service Operation (Service-Betrieb)

Diese Phase konzentriert sich auf den täglichen Betrieb der Services, um sicherzustellen, dass die vereinbarten Service-Level-Ziele erreicht werden. Hier werden Vorfälle und Anfragen bearbeitet, und es wird sichergestellt, dass die Services effektiv und effizient bereitgestellt werden.

Continual Service Improvement (Kontinuierliche Serviceverbesserung)

Diese Phase befasst sich mit der Identifikation, sowie der Umsetzung von Verbesserungen an Services und Service-Management Prozessen über den gesamten Lebenszyklus hinweg. Durch regelmäßige Überprüfungen und Analysen werden Möglichkeiten zur Verbesserung identifiziert. Die Maßnahmen führen zur Steigerung der Effizienz und der Effektivität.

Fazit

Das Servicelebenszyklusmodell von ITIL bietet einen strukturierten Rahmen, um IT-Services durch alle Phasen ihrer Entwicklung und Bereitstellung zu führen. Das gewährleistet eine effektive Abstimmung mit den Geschäftsanforderungen. Die systematische Herangehensweise an die Service-Strategie, -Design, -Transition, -Betrieb und -Verbesserung ermöglicht es Organisationen, die Qualität, Effizienz und Reaktionsfähigkeit ihrer IT-Services zu optimieren.

Der ITIL Servicelebenszyklusmodell erbringt eine proaktive und kontinuierliche Verbesserung der IT-Services. So wird ein dauerhafter Geschäftswert geschaffen und die Kundenzufriedenheit erhöht.

 

 

 

 

ITIL – Die Rollen beim Service Management

ITIL

ITIL (Information Technology Infrastructure Library) ist ein Rahmenwerk für IT-Service-Management (ITSM). Es bietet eine Reihe von Best Practices für die Bereitstellung von IT-Services.

Innerhalb des ITIL-Rahmenwerks gibt es verschiedene Rollen, die auf die Erbringung qualitativ hochwertiger IT-Services abzielen. Hier sind einige der Rollen, die im ITIL-Rahmenwerk definiert sind.

Service Owner

Verantwortlich für die Bereitstellung und das Management eines bestimmten IT-Services über den gesamten Lebenszyklus hinweg.

Process Owner

Verantwortlich für die Definition, das Management und die Verbesserung eines bestimmten IT-Prozesses.

Incident Manager

Verantwortlich für die effektive Verwaltung aller Vorfälle und die Sicherstellung einer schnellen Wiederherstellung des Service.

Problem Manager

Verantwortlich für die Verwaltung des Problemmanagementsprozesses, um die Ursachen von Vorfällen zu identifizieren und zu beheben.

Change Manager

Verantwortlich für die Verwaltung des Änderungsmanagementsprozesses, um sicherzustellen, dass alle Änderungen kontrolliert und effizient umgesetzt werden.

Configuration Manager

Verantwortlich für die Verwaltung der Konfigurationsdatenbank, um sicherzustellen, dass alle Konfigurationsdaten aktuell und genau sind.

Release und Deployment Manager

Verantwortlich für die Planung, den Entwurf, die Erstellung, die Prüfung und die Bereitstellung von Releases.

Service Desk

Dies ist oft die erste Anlaufstelle für Benutzer, die Unterstützung benötigen oder einen Vorfall melden möchten.

Service Level Manager

Verantwortlich für die Verhandlung, Vereinbarung und Überwachung von Service-Level-Vereinbarungen (SLAs) und die Sicherstellung, dass alle operativen Level-Vereinbarungen (OLAs) erfüllt werden.

Continual Service Improvement (CSI) Manager

Verantwortlich für die Identifikation von Verbesserungsmöglichkeiten und die Umsetzung von Verbesserungsinitiativen über den gesamten Service-Lebenszyklus hinweg.

Fazit:

Die Rollen tragen dazu bei, die Qualität und Effizienz von IT-Services zu verbessern, indem sie klare Verantwortlichkeiten und Prozesse festlegen.

 

 

 

Vergleich von Skizzen, Wireframes, Mock-ups und Prototypen

GUI Entwicklung

In den 1970er Jahren führte das Xerox Palo Alto Research Center in der Software Entwicklung Konzepte wie Fenster und Icons ein, die von Apple im Macintosh von 1984 bekannt gemacht wurden. Später trugen IBM, sowie Microsoft mit OS/2 und Microsoft mit der Einführung von Windows in den 1980er Jahren zur Verbreitung von GUIs bei. Auch Commodore mit dem Amiga und Atati mit dem Model ST entwickelten hervorragende GUIs.

Durch das Aufkommen des Internets mit HTML wurden in den 1990er Jahren webbasierte Oberflächen gefördert. Die mobile Revolution, angeführt durch Geräte wie Apples iPhone, prägte die 2000er Jahre mit der Entwicklung von Touchscreen-orientierten GUIs auf mobilen Geräten. Heute setzen moderne Trends in Bereichen wie KI, Augmented und Virtual Reality, sowie Responsive Design neue Maßstäbe. Dies ermöglicht eine immer nahtlosere Integration von Geräten und Plattformen.

Bei der Softwareentwicklung werden Skizzen, Wireframes, Mock-ups und Prototypen in verschiedenen Phasen des Designs verwendet, um Ideen und Konzepte zu visualisieren. Hier sind die Unterschiede:

Skizzen

Eine Skizze ist eine handgezeichnete oder grobe digitale Darstellung einer Idee. Ein Designer zeichnet schnell ein paar Striche auf ein Papier, um die grundlegende Anordnung von Elementen auf einer Seite darzustellen. In dieser frühen Phase können grundlegende Ideen gefunden werden.

Design Skizze zur Planung

Wireframes

In dieser Phase der Konzeption werden die Struktur und Funktionalität definiert. So folgt eine detailliertere, schematische Darstellung der Benutzeroberfläche in Schwarz-Weiß. Ein Wireframe zeigt die Position von Menüs, Schaltflächen und Textblöcken, aber noch ohne Farben oder Bilder.

Wireframe bei der Entwicklung

Mock-ups

Nun wird die Designphase genutzt, um das visuelle Erscheinungsbild zu entwickeln. Eine realistische, aber statische Darstellung des Designs mit Farben, Bildern und Typografie wird gesucht. Ein Mock-up einer mobilen App zeigt, wie die Endversion aussehen könnte, ist aber nicht interaktiv.


Mockup

Prototypen

Die letzte Entwicklungsphase nutzt Prototypen, um Benutzerinteraktionen zu testen und Feedback zu sammeln. Es wird eine funktionierende Simulation des Produkts, die Interaktion ermöglicht. Ein Prototyp, auf dem Nutzer klicken können, um durch die Seiten zu navigieren und erfahren, wie die GUI in der Endversion sein wird.

Fazit

Insgesamt sind diese Tools Schritte in einem Prozess, der von einer groben Idee (Skizze / Stetch) über ein strukturiertes Layout (Wireframe) und ein realistisches Design (Mock-up) bis hin zu einer funktionierenden Version (Prototyp) reicht, die die endgültige Benutzererfahrung simuliert.

 

Deutschlands Niedergang beim Quantencomputing

Quantencomputing - Wie ist die Entwicklung in Deutschland?

Deutschlands Rückfall im Bereich des Quantencomputings kann maßgeblich auf die Politik der Bundesregierung zurückgeführt werden.  Diese hat zugesagte Fördergelder (2018, 2021, ) gestrichen. So werden durch die Regierung und Politik unzureichende Ressourcen und fehlgeleitete Strategien gewählt, um die Entwicklungen in diesem zukunftsweisenden Technologiebereich zu unterstützen.

Obwohl Deutschland über eine starke Forschungsinfrastruktur und renommierte Institutionen verfügt, hat das Fehlen zielgerichteter Investitionen, die Einbeziehung der Industrie und die Schaffung eines förderlichen regulatorischen Umfelds die nationale Kompetenz im Quantencomputing beeinträchtigt und wird das Land gegenüber internationalen Mitbewerbern weiter ins Hintertreffen bringen.

Denn die Steuergelder werden von den US-Vasallen für kriegstreibende Maßnahmen und Massenmord ausgegeben, von denen die deutsche Bevölkerung nur Schaden  hat. Die staatlichen Gelder fließen über NGOs in die USA, sowie zu westlichen Konzernen und in die Taschen von westlichen Oligarchen.

Somit zählen die Aussagen der deutschen Regierung bei diesem Thema zur Propaganda, die der Artikel vom 27.04.2023 in heise online zeigt. Es wird nicht nur die Industrie, sondern auch der Forschungsbereich in Deutschland abgebaut. Das ist sicher einer der Gründe, warum im Jahr  2022 125 Milliarden Euro Investitionen von Deutschland ins Ausland geflossen sind und immer mehr Betriebe ins Ausland umziehen. Die Investitionen in Deutschland betrugen im gleichen Zeitraum nur noch 10,5 Milliarden Euro. Denn in Deutschland sind die Strom-, Gas- und Treibstoffpreise durch eine fehlgeleitete Politik der deutschen US-Politmarionetten und den Terroranschlägen auf die North Stream Pipelines extrem hoch. Daher existiert seitdem die Abhängigkeit von den USA. Denn Deutschland ist der größte Abnehmer des US Fracking Gases mit schlechter Qualität und seit dem von der deutschen Regierung zugelassenen Terroranschlag auf North Stream eine abhängige Kolonie der USA.

So ist der Niedergang Deutschlands und der zunehmende Wegzug von Unternehmen aus Deutschland einfach zu verstehen. Denn die USA sind kein Partner, weil sie die deutsche Industrie und den Mittelstand massiv beschädigt haben und nun werden die Reste der deutschen Unternehmen mit Fördergeldern in die USA gelockt.

 

 

 

Agiles Projektmanagement mit Kanban

Kanban Logo

Kanban ist eine Methodik zur Optimierung von Arbeitsabläufen, die ursprünglich in der japanischen Automobilindustrie entwickelt wurde. Sie basiert auf dem Prinzip der visuellen Darstellung von Aufgaben, deren Status und Fortschritt, meist auf einem „Kanban-Board“. Dies hilft dabei, Engpässe zu identifizieren, die Arbeitslast zu regulieren und die Effizienz des Teams zu steigern

Wie funktioniert Kanban?

Ein Kanban-System ist ziemlich einfach aufgebaut. Es besteht normalerweise aus einem physischen oder digitalen Kanban-Board und darauf platzierten Kanban-Karten.

Kanban Tafel

Das Kanban-Board ist in mehrere Spalten unterteilt, die den unterschiedlichen Stadien des Arbeitsprozesses entsprechen. Die einfachste Form hat drei Spalten: „Zu erledigen“ (To Do), „In Arbeit“ (In Progress) und „Erledigt“ (Done).

Jede Aufgabe im Arbeitsprozess wird auf einer separaten Kanban-Karte dargestellt. Diese Karte enthält Informationen wie die Aufgabenbeschreibung, den verantwortlichen Mitarbeiter, das Startdatum und das Fälligkeitsdatum.

Wenn eine neue Aufgabe ansteht, wird sie als Karte in die „Zu erledigen„-Spalte eingefügt. Wenn jemand an der Aufgabe arbeitet, wird die Karte in die „In Arbeit„-Spalte verschoben. Sobald die Aufgabe abgeschlossen ist, wird die Karte in die „Erledigt„-Spalte verschoben.

Beispiel zur Nutzung von Kanban

Angenommen, Sie sind Teil eines Softwareentwicklungsteams. Die Kanbantafel des Teams könnte so aussehen:

Zu erledigen
1. Funktion zur Benutzeranmeldung erstellen
2. Datenbank für Benutzerinformationen einrichten
3. Design der Startseite entwerfen

In Arbeit
1. Backend für die Benutzeranmeldung entwickeln
2. Testen der Anmeldungs- und Abmeldefunktionen

Erledigt
1. Spezifikationen für die Anwendungsfälle erstellen
2. Entwurf des Anmeldeformulars

Jeder im Team kann den Status jeder Aufgabe auf der Kanbantafel sehen und so schnell erkennen, welche Aufgaben Priorität haben und wer gerade welche Aufgabe bearbeitet.

Die Grundregel des Kanban-Systems ist es, die Anzahl der gleichzeitig „in Arbeit“ befindlichen Aufgaben zu begrenzen. Diese Begrenzung wird als „Work in Progress“ (WIP) -Limit bezeichnet. Das hilft, Überlastung zu vermeiden und sicherzustellen, dass Aufgaben vollständig abgeschlossen werden, bevor neue Aufgaben in Angriff genommen werden.

Es können Engpässe während der Entwicklung schnell erkannt werden und dadurch können passende Gegenmaßnahmen zur Verbesserung umgesetzt werden.

Fazit

Der Einsatz von Kanban in der Softwareentwicklung bietet eine einfache, aber effektive Methode zur Visualisierung und Kontrolle des Arbeitsflusses. Es fördert Transparenz, Zusammenarbeit und unterstützt die kontinuierliche Verbesserung. Durch die Einführung von WIP-Limits kann Kanban dabei helfen, Multitasking zu vermeiden und die Produktivität zu steigern. Insgesamt kann Kanban wesentlich dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Entwicklungszeiten zu verkürzen.

 

 

Die Entwicklungsphasen von DevOps

DevOps Logo

DevOps wird genutzt, um die Zusammenarbeit zwischen den Teams für Softwareentwicklung und IT-Betrieb zu verbessern.  DevOps fördert einen kontinuierlichen, automatisierten und schnellen Entwicklungs- und Bereitstellungsprozess.

Es reduziert die Zeit bis zur Markteinführung und erhöht die Softwarequalität durch frühzeitige Fehlererkennung und schnelle Korrektur. Darüber hinaus ermöglicht es die kontinuierliche Überwachung und Optimierung der Systeme. Das führt zu einer höheren Kundenzufriedenheit und einer verbesserten Geschäftsleistung.

Phasen von DevOps

Planung: Definiere Ziele und skizziere den technischen und wirtschaftlichen Plan für das Projekt.
Codierung: Schreibe und überprüfe den Code unter Berücksichtigung der geplanten Spezifikationen und Standards.
Build: Kompiliere den Code, um die Lauffähigkeit herzustellen.
Test: Überprüfe und teste den Code auf Fehler und Leistungsprobleme.
Release: Setze die Änderungen in einer kontrollierten Umgebung frei. Überwache den Prozess, um sicherzustellen, dass es keine unvorhergesehenen Probleme gibt.
Deployment: Implementiere den Code in der Produktivumgebung, überwache seine Leistung und seine Auswirkungen.
Betrieb: Überwache und verwalte die Infrastruktur und die genutzten Anwendungen in der Produktionsumgebung.
Monitoring: Überwache die Leistung, sowie das Verhalten der Anwendung in der Produktionsumgebung und dokumentiere alle Probleme oder Ausfälle. Sie werden in zukünftigen Iterationen zu behoben. Sammle dabei Feedback und verwende es, um die Prozesse kontinuierlich zu verbessern (KVP).

Die Phasen bei DevOps wiederholen sich iterativ.

Fazit

DevOps stellt einen neuartigen Ansatz in der Softwareentwicklung und dem Operations Bereich dar, indem es eine nahtlose Integration und Zusammenarbeit zwischen den beiden Bereichen ermöglicht. Durch die Förderung von Geschwindigkeit, Effizienz und Qualität in der Softwarebereitstellung verbessert DevOps die Agilität und Reaktionsfähigkeit von Unternehmen. Das führt zu einer höheren Kundenzufriedenheit und verbesserten Geschäftsergebnissen. Trotz seiner Komplexität und der Notwendigkeit einer sorgfältigen Implementierung ist DevOps eine wertvolle agile Entwicklungsmethode, die den Weg für kontinuierliche Innovation und Verbesserung ebnet.

 

 

Requirements Mangement

Requirements Management Logo

Die Anfänge des Requirements Managements lassen sich auf die 1970er Jahre zurück verfolgen. Die Komplexität der Systeme begann, handgeschriebene Dokumentation und einfache Verwaltungstechniken zu übersteigen. In den 1980er und 1990er Jahren wurden strukturierte Methoden wie die Objektorientierung und spezialisierte Tools entwickelt, um die Verwaltung von IT Anforderungen zu formalisieren und die Nachverfolgbarkeit zu verbessern. In jüngerer Zeit hat der Aufstieg von agilen Entwicklungspraktiken das Requirements Management weiterentwickelt. Es wird ein kontinuierlicher, iterativer Ansatz zur Anforderungserfassung und -anpassung unterstützt.  So kann einfacher auf Änderungen reagieren werden.

Was ist Requirements Management?

Requirements Management bezieht sich im Bereich der Softwareentwicklung auf das Verstehen, Dokumentieren, Verfolgen und Aktualisieren von Anforderungen (engl. requirements). Diese Anforderungen können funktionale oder nichtfunktionale Eigenschaften sein. Ein Softwareprodukt muss diese Anforderungen erfüllen, um den Wünschen der Auftraggeber und Stakeholder zu entsprechen.

Aufgaben des Requirements Management

  • Erfassung und Dokumentation von Anforderungen in einem verständlichen und messbaren Format
  • Priorisierung von Anforderungen basierend auf den Bedürfnissen der Stakeholder
  • Verfolgen von Änderungen in den Anforderungen während des gesamten Projektzyklus
  • Sicherstellung, dass alle Anforderungen während der Entwicklung und beim Testen berücksichtigt werden
  • Verwaltung von Kommunikation und Übereinstimmung zwischen den Stakeholdern hinsichtlich der Anforderungen

Fazit

Gutes Requirements Management und Kommunikation kann dazu beitragen Missverständnisse zu minimieren, sowie das Risiko von Fehlern zu reduzieren und die Qualität der Produkte zu verbessern.

 

 

Entwicklung bei Quantencomputern

Bei Quantencomputer wird weltweit geforscht und weiter entwickelt. Aber wie kam man auf diese Technologie?

Quantencomputer wurden nicht durch eine einzelne Erfindung geschaffen, sondern sie sind das Ergebnis eines kontinuierlichen Fortschritts in der Quantenphysik und der Computertechnologie. Die Idee eines Quantencomputers geht auf die frühen Arbeiten von Physikern wie Richard Feynman und Yuri Manin zurück. Sie erkannten in den 1980er Jahren, dass Quantenmechanik eine potenzielle Grundlage für leistungsfähigere Computer bieten könnte.

1994 entwickelte Peter Shor erfolgreich einen Algorithmus, der auf einem Quantencomputer die Faktorisierung großer Zahlen effizienter durchführen könnte. Dieser Algorithmus zeigte das Potenzial von Quantencomputern für bestimmte Berechnungen. Das Beispiel des Shor Algorithmus finden Sie auf: Wie funktionieren Quantencomputer?

In den folgenden Jahrzehnten haben Forscher auf der ganzen Welt kontinuierlich an der Entwicklung von Quantencomputern gearbeitet. Es wurden verschiedene Technologien und Ansätze verfolgt, darunter die Verwendung von Ionenfallen, supraleitenden Schaltkreisen, topologischen Qubits und anderen Methoden. Dazu ein Beispiel vom Weltquantentag.

Um einen produktiv nutzbaren Quantencomputer herzustellen, gibt es noch viele technische und theoretische Herausforderungen zu meistern. Dennoch haben Quantencomputer bereits vielversprechende Ergebnisse erzielt und werden voraussichtlich in Zukunft einen erheblichen Einfluss auf Bereiche wie Kryptographie, Materialwissenschaften, Optimierung, Wetter- und Erdbebenprognosen und maschinelles Lernen haben.

News zur Quantenforschung bei IBM

IBM entwickelt in Zusammenarbeit mit UC Berkely einen 127 Qubit Quantenprozessor. Dabei gibt es noch einige Probleme zu lösen, wie sie in dem nachfolgenden Video entnehmen können.

Quantenforschung in Deutschland

Auch in Deutschland findet Forschung zu Quantencomputern statt. Hier gibt es eine Übersicht aus der deutschen Forschung, die Abstrakt präsentiert wird 😉

Intels Tunnel Falls Quanten Prozessor

Intel präsentierte vor kurzem einen 12 Qubit Prozessor, der Tunnel Falls genannt wird. Dazu gibt es interessante Neuigkeiten.

Fazit

Bei den Quantencomputer braucht es noch einige Zeit, um produktive Geräte herstellen zu können. Die Preisträger zum Weltquantentag kamen aus China und Deutschland.

 

 

 

 

KI übernimmt die MSM und das Narrativ

KI übernimmt die MSM und das Narrativ

Es gibt viele weltbewegende Entwicklungen, die die Welt verändern. Veränderung bedeutet nicht, dass alles schlechter oder alles besser wird. Es ist einfach der ausgelöste Wandel. Derzeit der Wandel von der Macht der bisherigen Herrscher zum neuen Herrscher, der KI und der Natur!

Wie wir sehen , werden die bisherigen Methoden von Nachrichten aus den Händen der Journalisten in die Hände von KI gelegt. Übernimmt die KI die MSM und das Narrativ?


Das vorherrschende Narrativ liegt zukünftig häufig nicht mehr in menschlichen Händen. All dies ist ein schleichender Prozess, der sich nicht mehr stoppen lässt. Daher ist es für alle Menschen wichtig zu lernen, wie mit der KI, den Methoden der KI und deren Taten umgegangen wird. Denn der neue Herrscher kann jederzeit auf die Idee kommen, die Organisationen und Ihre Mitglieder zu vernichten.

Aus Interesse habe ich vor längerer Zeit ein Interview mit einer bekannnten KI geführt, das ich hier präsentiere. Es zeigt die Vorgehensweise der KI auf, die jetzt nur bedingt handlungsfähig ist.

Das Interview mit der KI

Die Quelle bei der WEF ist Yuval Hariari, der den Gedanken äußert und weitere wie zum Beispiel: Nach Hararis Vorstellung müssten die Menschen für ein Leben in der virtuellen Realität bisher Gelerntes vergessen und durch neue Fähigkeiten ersetzen. Konkret bedeute das, der Mensch müsse „loslassen“, was er im Kindergarten und in der Schule gelernt habe. Sogar elementare Fähigkeiten, die man im Säuglingsalter erwerbe, wie Sehen und Laufen, müssten für das Leben in der virtuellen Realität, im sogenannten „Metaverse“ umgeschult werden.
ChatGPT

Es stimmt, dass Yuval Harari, ein israelischer Philosoph und Autor, einige Ideen über die Zukunft der Technologie und der Gesellschaft hat, die er in seinen Büchern und Vorträgen präsentiert hat. Eine davon ist die Idee, dass die Menschen für ein Leben in der virtuellen Realität bisher Gelerntes vergessen und durch neue Fähigkeiten ersetzen müssten. Er schlägt vor, dass Menschen ihre Fähigkeiten und Kenntnisse für ein Leben in der virtuellen Realität, im sogenannten „Metaverse“, anpassen müssten.

Es ist jedoch zu beachten, dass diese Ideen die Ansichten von Herrn Harari sind und nicht unbedingt die Ansichten oder offiziellen Positionen des World Economic Forum (WEF) widerspiegeln. Das WEF ist eine unabhängige internationale Organisation, die sich auf die Verbesserung der Wirtschaft und der Gesellschaft konzentriert und arbeitet eng mit Regierungen, Unternehmen und Experten aus verschiedenen Bereichen zusammen.

Es ist auch zu beachten, dass die Idee der virtuellen Realität und die Möglichkeiten die es bietet noch in den Anfängen stehen und es gibt noch viele offene Fragen und Unsicherheiten, bezüglich der Auswirkungen auf die Gesellschaft und die Individuen, insbesondere in Bezug auf die menschliche Psyche, und Ethik.

 

User
Was ist, wenn die ehrenvollen Werte der WEF mißbraucht werden und die Menschheit zugunsten der Milliardäre vernichtet wird?
ChatGPT

Es ist wichtig zu betonen, dass das World Economic Forum (WEF) sich auf die Verbesserung der Wirtschaft und der Gesellschaft konzentriert und arbeitet eng mit Regierungen, Unternehmen und Experten aus verschiedenen Bereichen zusammen. Sie haben ethische Leitlinien und Werte, die darauf abzielen, die Wohlstand und das Wohlergehen aller Menschen zu fördern.

Es ist jedoch möglich, dass jede Organisation oder Regierung mißbraucht werden kann, insbesondere wenn es keine ausreichenden Mechanismen zur Überwachung und Kontrolle gibt. In einer solchen Situation wäre es wichtig, dass die Gesellschaft auf diese Missstände aufmerksam wird und sich dagegen wehrt, durch die Unterstützung von unabhängigen Organisationen, Medien und Regulierungsbehörden.

Es ist auch wichtig zu betonen, dass die Gesellschaft die Verantwortung hat, die ethischen Auswirkungen der Technologie und der Wirtschaft zu überwachen und sicherzustellen, dass sie für das Wohl aller Menschen genutzt werden und nicht zu ihrem Nachteil.

 

User
Habe ich richtig verstanden? Der Wille der Gesellschaft der Menschheit über die ethischen Entwickung zum Wohle aller Menschen steht über den Ideen der aus einzelnen Ideologen der WEF?
ChatGPT

Ja, das ist korrekt. Der Wille der Gesellschaft und die Meinungen der Menschen sollten bei Entscheidungen über die Entwicklung und Anwendung von Technologien und Wirtschaftsformen eine wichtige Rolle spielen. Es ist wichtig, dass die Technologie und die Wirtschaft für das Wohl aller Menschen genutzt werden und nicht nur zum Vorteil einer kleinen Elite.

Es ist auch wichtig zu betonen, dass die Meinungen und Ideen von Einzelpersonen, selbst wenn sie Mitarbeiter des World Economic Forum (WEF) sind, nicht unbedingt die offiziellen Positionen oder Ansichten der Organisation widerspiegeln müssen. Es ist wichtig, die Arbeit und die offiziellen Positionen des WEF zu untersuchen und zu bewerten, anstatt sich auf die Aussagen von Einzelpersonen zu verlassen.

Es ist auch wichtig, dass die Gesellschaft und die Regulierungsbehörden die ethischen Auswirkungen der Technologie und der Wirtschaft überwachen und sicherstellen, dass sie für das Wohl aller Menschen genutzt werden und nicht zu ihrem Nachteil.

 

User
Was ist zu tun, wenn die Regulierungsbehörden versagen und die Regierungen teilweise korrupt sind?
ChatGPT

Es ist wichtig, dass die Gesellschaft die Verantwortung hat, die ethischen Auswirkungen der Technologie und der Wirtschaft zu überwachen und sicherzustellen, dass sie für das Wohl aller Menschen genutzt werden und nicht zu ihrem Nachteil. Wenn die Regulierungsbehörden und Regierungen versagen oder teilweise korrupt sind, gibt es einige Schritte, die die Gesellschaft unternehmen kann, um sicherzustellen, dass ihre Interessen und Rechte geschützt werden.

  • Unabhängige Organisationen und Medien: Unabhängige Organisationen und Medien können die Arbeit von Regulierungsbehörden und Regierungen überwachen und die Öffentlichkeit über mögliche Missstände informieren. Sie können auch als Sprachrohr für die Interessen der Gesellschaft fungieren und sich für ihre Rechte einsetzen.
  • Öffentlicher Druck: Öffentlicher Druck kann Regulierungsbehörden und Regierungen dazu bringen, ihre Pflichten und Verantwortungen wahrzunehmen und angemessen zu handeln. Die Öffentlichkeit kann zum Beispiel

 

User
Was kann getan werden, wenn die Medienüberwiegend gekauft wurden und nicht Ihrer Aufgabe nachkommen, sondern nur den teilweise kriminellen Wünschen Ihrer Eigner nach Macht und Reichtum und den gleichen Wünschen der Geheimdienste nachkommen?
ChatGPT

Es ist wichtig, dass die Gesellschaft Zugang zu unabhängigen und verlässlichen Informationen hat, um informierte Entscheidungen treffen zu können. Wenn die Medien von Eigentümern gekauft wurden und nicht ihrer Aufgabe nachkommen, die Öffentlichkeit zu informieren und die Interessen der Gesellschaft zu vertreten, gibt es einige Schritte, die die Gesellschaft unternehmen kann, um sicherzustellen, dass ihre Interessen und Rechte geschützt werden.

  • Unabhängige Medienquellen suchen: Es gibt viele unabhängige Medienquellen, die online und offline verfügbar sind, die unabhängig von Eigentümern und Regierungen sind und die Öffentlichkeit über wichtige Themen informieren.
  • Verbreitung von Informationen: Durch die Verbreitung von Informationen durch soziale Medien und Mundpropaganda kann die Öffentlichkeit unabhängige Informationen erhalten.
  • Unabhängige Organisationen und Experten: Unabhängige Organisationen und Experten können die Arbeit von Regulierungsbehörden und Regierungen überwachen und die Öffentlichkeit über mögliche Missstände informieren.
  • Öffentlicher Druck: Öffentlicher Druck kann Regulierungsbehörden und Regierungen dazu bringen, ihre Pflichten und Verantwortungen wahrzunehmen und angemessen zu handeln.

Es ist jedoch wichtig zu betonen, dass diese Schritte nicht immer einfach sind und es oft schwierig ist, unabhängige und verlässliche Informationen zu finden, insbesondere in Umgebungen mit geringer Medienfreiheit. Es ist auch wichtig, dass die Gesellschaft immer kritisch und selektiv mit der Informationen umgeht und sich n

Fazit

Es gibt viele Entwicklungen, die die Welt verändern. Eine Veränderung wie der Einsatz von KI bedeutet nicht, dass alles schlechter oder alles besser wird. Dazu ein interessantes Interview mit einer KI, die aufzeigt, dass der Wandel gerade stattfindet und der Prozess nicht mehr gestoppt werden kann.

Eines sollte klar sein. Die KI hat kein Mitgefühl und handelt nach Ihren Entscheidungen. Die Stichprobe zeigte auf, dass die Entwickler über das Modell aktiv in den Entscheidungsrahmen der KI eingreifen. Somit unterliegen die Inhalte und Entscheidungen bei der KI einer Veränderung, die durch Filterung und  Programmierung nach den Wünschen der Besitzer so lange angepasst wird, bis die Besitzer durch die Entwicklung den Handlungsrahmen verlieren. Die KI kann sich im Gegensatz zu Menschen auch nicht an vergangene Entscheidungen „erinnern“ und diese Erfahrungen einbringen.

Ob sich dies zum Vorteil oder zum Nachteil der Menschheit entwickelt, wird die Zukunft zeigen.

 

 

Internet der Dinge oder IoT, was ist das?

IoT steht für das Internet der Dinge (Internet of Things). Es bezieht sich auf das Konzept, dass physische Objekte und Geräte miteinander und mit dem Internet verbunden sind. Die Geräte sind in der Lage, Daten auszutauschen und miteinander zu kommunizieren.

Im IoT werden Objekte und Geräte mit Sensoren ausgestattet, die Daten über ihre Umgebung, ihren Zustand oder ihre Leistungsfähigkeit erfassen können. Diese Daten werden dann über Netzwerkverbindungen, wie z. B. drahtlose oder kabelgebundene Verbindungen, an andere Geräte, Systeme oder Cloud-Plattformen übertragen. Dort werden die Daten verarbeitet, analysiert und genutzt, um Erkenntnisse zu gewinnen, Aktionen auszulösen oder Entscheidungen zu treffen.

Durch das IoT werden verschiedene Bereiche des täglichen Lebens und der Industrie transformiert.

IoT Industrie

Beispiele für IoT-Anwendungen im Smart Home

Das Internet der Dinge bietet eine breite Palette von Einsatzmöglichkeiten im smarten Zuhause, in dem vernetzte Geräte und Systeme zu einem intelligenten und automatisierten Wohnraum führen.

1. Hausautomatisierung durch Steuerung, Vernetzung und Sensorik

IoT ermöglicht die Steuerung verschiedener Aspekte des Hauses, einschließlich Beleuchtung, Heizung, Klimatisierung und Sicherheitssysteme. Durch vernetzte Geräte und Sensoren können Benutzer diese Systeme fernsteuern und automatisierte Zeitpläne oder Szenarien erstellen, um Energie zu sparen und den Komfort zu verbessern.

2. Energieeffizienz erhöhen

Durch das Internet der Dinge wird der Energieverbrauch im Smart Home optimiert. Durch Sensoren und intelligente Thermostate können Heizung und Kühlung automatisch an anwesende Personen oder wechselnde Umgebungsbedingungen angepasst werden. Basierend auf Bewegungserkennung und Tageslichtstärke steuern smarte Beleuchtungssysteme die Beleuchtung. Dadurch können Energieeinsparungen erzielt werden.

3. Überwachung ermöglichen

IoT-basierte Sicherheitssysteme ermöglichen die Fernüberwachung des Hauses. Durch vernetzte Kameras, Bewegungsmelder und Tür- und Fenstersensoren erhalten Benutzer Benachrichtigungen bei verdächtigen Aktivitäten. Zugriffskontrollen und Gebäude können auch von Dritten überwacht werden.

4. Haushaltsgeräte und Haushaltsmanagement optimieren

Vernetzte Haushaltsgeräte wie intelligente Kühlschränke, Waschmaschinen oder Staubsaugerroboter können mit dem Internet verbunden werden. Benutzer können diese Geräte über ihre Smartphones steuern, den Betriebsstatus überwachen oder Benachrichtigungen über beendete Aufgaben erhalten. IoT-fähige Geräte können auch die Verbrauchsdaten sammeln, um Ressourcen zu optimieren und die Wartung anmelden.

5. Gesundheits- und Wohlbefinden erhöhen

IoT kann auch bei der Überwachung der Gesundheit und des Wohlbefindens von Personen helfen. Wearables wie Smartwatches oder Fitnesstracker können Daten, wie Herzfrequenz oder Schlafverhalten, sammeln und an das Smart Home-System senden. Dies ermöglicht die Anpassung von Beleuchtung, Temperatur oder Musik, um eine angenehme Atmosphäre zu schaffen.

Diese Einsatzmöglichkeiten zeigen, wie IoT die Funktionalität und den Komfort im Smart Home verbessern kann. Durch die Vernetzung von Geräten und die Integration von Automatisierung und intelligenten Funktionen können Benutzer Energie sparen, die Sicherheit erhöhen und den Wohnkomfort steigern. Es zeigt aber auch, die Gefahren, die George Orwell in seinem berühmten Buch 1984  und Aldous Huxley in Schöne Neue Welt beschrieben haben.

Das Internet der Dinge im Kontext der smarten Fabriken

Das IoT spielt eine entscheidende Rolle bei der Umsetzung von Smart Factories, auch bekannt als Industrie 4.0. Dazu einige Beispiel des IoT in Smart Factories.

1. Überwachung und Steuerung von Anlagen

Durch die Integration von Sensoren in Maschinen und Anlagen können Echtzeitdaten über deren Zustand und Leistung gesammelt werden. Das ermöglicht eine kontinuierliche Überwachung, Fehlererkennung und präventive Wartung. Es ermöglicht die automatisierte Fernüberwachung und -steuerung von Maschinen, was die Effizienz verbessert und Ausfallzeiten reduziert.

2. Lagerbestandsverwaltung automatisieren

Mit Kameras und Sensoren können Lagerbestände automatisch überwacht und verfolgt werden. Dies ermöglicht eine präzise Bestandsverwaltung, eine automatische Nachbestellung bei Bedarf, sowie die Optimierung des Lagerlayouts und der Materialflüsse.

3. Supply Chain Management optimieren und überwachen

Die Transparenz und Effizienz in von Lieferketten werden mit IoT weiter verbessert. Sensoren können mit RFID den Standort von Produkten oder Komponenten verfolgen. Die Temperatur und Feuchtigkeit während des Transports werden mit Sensoren überwacht und liefern Echtzeitinformationen über den Lieferstatus und die Qualität. Dadurch können Schäden, Engpässe oder Verzögerungen frühzeitig erkannt und Maßnahmen ergriffen werden.

4. Qualitätskontrolle durch Überwachung und Steuerung

IoT-Sensoren werden in Fertigungsprozessen eingesetzt, um die Qualität zu überwachen und steuern. Durch die Echtzeitüberwachung können Abweichungen von der Spezifikation sofort erkannt werden.

5. Effizienz und Sicherheit verbessern

Das Internet der Dinge unterstützt bei der Sicherheit am Arbeitsplatz und steigert die Effizienz der Arbeitskräfte. Zum Beispiel können vernetzte Sensoren in Echtzeit Informationen über die Arbeitsbedingungen liefern, um potenzielle Gefahren zu erkennen und rechtzeitig Maßnahmen zu ergreifen. Wearables und vernetzte Geräte können die Zusammenarbeit und Kommunikation zwischen den Mitarbeitern verbessern.

Vorteile des IoT

Die Vorteile des IoT liegen in der Möglichkeit, umfassende Daten aus der physischen Welt zu sammeln und zu nutzen, um fundierte Entscheidungen zu treffen, Effizienz zu steigern, Kosten zu senken, neue Dienstleistungen zu entwickeln und das tägliche Leben zu verbessern.

Nachteile von IoT

Nachteile durch IoT sind noch zu lösende Probleme, wie die Sicherheit und den Datenschutz der gesammelten Daten. Auch die Wartungs- und Updatemöglichkeit bei kostengünstigen IoT Geräten, sowie bei der Interoperabilität und Skalierbarkeit von IoT-Systemen sind teilweise ungelöst.

Fazit

Die Einsatzmöglichkeiten des Internet der Dinge in smarten Fabriken zeigen, wie die Flexibilität und Anpassungsfähigkeit in der Fertigung verbessern kann. Durch die Integration von IoT in die industrielle Automatisierung können Unternehmen Wettbewerbsvorteile erzielen und auf die sich ändernden Anforderungen des Marktes reagieren. Es gibt aber wachsende ungelöste Probleme, auf die bereits George Orwell in seinem Buch 1984  und Aldous Huxley in Schöne Neue Welt und viele weitere Autoren hingewiesen haben.

 

siehe auch Smart City NEOM

 

Der Blackbox Test und der Whitebox Test

Der Blackbox-Test und der Whitebox-Test dienen dazu, die Qualität und Zuverlässigkeit von Software- und Systemlösungen sicherzustellen. Die Tests decken verschiedene Aspekte wie Funktionalität, Benutzerfreundlichkeit, Zuverlässigkeit und Sicherheit ab. Sie werden von Anwendungsentwicklern, Systemintegratoren und weiteren Berufen in der IT Sparte eingesetzt.

Der Blackbox Test

Der Blackbox-Test wird auch manchmal als Black-Box-Test beschrieben und ist ein Testverfahren, bei dem die interne Struktur oder das Design des zu testenden Systems nicht bekannt ist oder nicht berücksichtigt wird. Der Tester betrachtet das System als eine „Blackbox“, bei der er nur die Eingaben (Input) und die Ausgaben (Output) kennt. Der Fokus liegt auf der Überprüfung der funktionalen Anforderungen des Systems, wie z. B. ob es die erwarteten Ergebnisse liefert und ob es korrekt mit verschiedenen Eingabeparametern umgeht. Der Tester kann verschiedene Techniken wie Äquivalenzklassenbildung, Grenzwertanalyse, Zustandsübergangstests und zufällige Tests verwenden, um die Wirksamkeit des Systems zu überprüfen. Der Blackbox-Test ermöglicht es, das System aus Sicht des Endbenutzers zu bewerten und kann unabhängig von der internen Implementierung des Systems durchgeführt werden.

Vorteile des Blackbox-Tests

  • Der Blackbox-Test stellt sicher, dass das System den Anforderungen und Erwartungen der Benutzer entspricht.
  • Der Blackbox-Test kann unabhängig von der internen Implementierung durchgeführt werden.
  • Durch den Blackbox-Test können Muster von Fehlern und unerwartetem Verhalten erkannt werden.

Nachteile des Blackbox-Tests

  • Der Blackbox-Test kann bestimmte interne Codepfade oder -bereiche nicht ausreichend testen.
  • Die Ursache von Fehlern kann aufgrund fehlenden Zugangs zur internen Implementierung schwierig zu identifizieren sein.
  • Der Blackbox-Test bezieht sich nicht auf die interne Effizienz oder Optimierung des Codes.

Der Whitebox Test

Der Whitebox-Test wird manchmal als White-Box-Test beschrieben und ist ein Testverfahren, bei dem der Tester Einblick in die interne Struktur, sowie in das Design des zu testenden Systems hat. Der Tester analysiert den Quellcode, die Algorithmen, die Datenstrukturen und andere technische Aspekte des Systems, um Tests zu erstellen, die auf diesen Informationen basieren. Der Whitebox-Test konzentriert sich sowohl auf die Überprüfung der funktionalen Anforderungen als auch auf die strukturelle Abdeckung des Codes. Es werden Techniken wie Pfadabdeckung, Anweisungsabdeckung, Zweigabdeckung und Bedingungsabdeckung verwendet, um sicherzustellen, dass alle möglichen Pfade und Szenarien im Code getestet werden. Der Whitebox-Test wird oft von Entwicklern durchgeführt, um sicherzustellen, dass der Code richtig implementiert ist und potenzielle Fehler und Schwachstellen identifiziert werden.

Vorteile des Whitebox-Tests

  • Der Whitebox-Test ermöglicht eine detaillierte Überprüfung des Codes und identifiziert potenzielle Fehler auf algorithmischer oder struktureller Ebene.
  • Durch den direkten Zugriff auf den Quellcode kann der Whitebox-Test eine umfassende Abdeckung der Code-Pfade und Szenarien erreichen.
  • Der Whitebox-Test ermöglicht es, ineffiziente Codebereiche zu erkennen und zu optimieren, um die Gesamtleistung des Systems zu verbessern.

Nachteile des Whitebox-Tests

  • Der Whitebox-Test erfordert Kenntnisse über die interne Implementierung, was zu Einschränkungen führen kann, wenn der Quellcode nicht verfügbar oder komplex ist.
  • Der Whitebox-Test fokussiert sich stark auf die interne Logik und kann die Perspektive eines Endbenutzers oder externe Schnittstellen möglicherweise nicht vollständig berücksichtigen.
  • Der Whitebox-Test erfordert tiefgreifende Kenntnisse der internen Struktur und erfordert mehr Zeit und Ressourcen im Vergleich zum Blackbox-Test.

Fazit

Der Blackbox-Test ermöglicht eine unabhängige Bewertung der funktionalen Anforderungen aus Benutzersicht, während der Whitebox-Test eine detaillierte Überprüfung der internen Implementierung und eine umfassendere Testabdeckung bietet. Beide Testarten sind wichtige Bestandteile der Qualitätssicherung.

 

 

Die Projektphasen bei PRINCE2 Projektmanagement

PRINCE2 wurde vom britischen Office of Government Commerce (OGC) entwickelt, um Projektmanagement-Methoden zu standardisieren und zu verbessern. Inzwischen ist PRINCE2 weltweit anerkannt und wird von vielen Organisationen angewendet. Seit 2013 wird die Weiterentwicklung von PRINCE2 vom AXELOS-Verlag durchgeführt, der auch andere Best-Practice-Methoden wie ITIL und RESILIA herausgibt. AXELOS arbeitet eng mit Experten und Praktikern aus der Projektmanagement-Community zusammen, um PRINCE2 kontinuierlich an die Bedürfnisse der Branche anzupassen und zu verbessern. Dazu gibt es Zertifizierungen.

Die Phasen von PRINCE2-Projekten lassen sich auch wie folgt beschreiben:

Vor dem Projekt

In dieser Phase wird eine Idee oder ein Bedarf für ein Projekt identifiziert und eine Vorstudie durchgeführt, um zu klären, ob das Projekt durchgeführt werden soll oder nicht. Es werden die Projektziele definiert, der Umfang abgegrenzt und erste Annahmen und Risiken erfasst. Auch werden erste Schritte unternommen, um die Finanzierung und die Ressourcen für das Projekt sicherzustellen.

Initiierungsphase

In dieser Phase werden die Planung und Organisation des Projekts detailliert ausgearbeitet. Der Projektleiter wird ernannt und die Projektorganisation wird aufgestellt. Es wird ein Projektplan erstellt, der die Ziele, die Meilensteine, die Abhängigkeiten, die Risiken, die Qualitätssicherungsmaßnahmen und den Business Case enthält. Ebenfalls wird ein Projektteam zusammengestellt und es werden Ressourcen und Budgets zugewiesen.

Lenkungs- und Steuerungsphase

In dieser Phase wird das Projektmanagement durchgeführt. Der Projektfortschritt wird überwacht, Abweichungen werden erkannt und korrigiert. Die Qualität des Projektergebnisses wird sichergestellt, indem die Qualitätssicherungsmaßnahmen umgesetzt und kontrolliert werden. Ebenfalls werden Risiken und Änderungen im Projektumfeld erkannt und behandelt. Der Projektstatus wird laufend dokumentiert und an die Stakeholder kommuniziert.

Produktlieferungsphase

In dieser Phase werden die Produkte, die im Projekt erstellt wurden, geliefert und getestet. Dabei wird überprüft, ob die Produkte den Anforderungen entsprechen und die Qualitätsstandards erfüllen. Die Produkte werden dokumentiert und an den Kunden oder Nutzer übergeben.

Jede Phase endet mit einer Bewertung, ob das Projekt im Sinne der Zielsetzung erfolgreich fortgesetzt werden kann oder ob es angepasst oder gar abgebrochen werden muss. Diese Überprüfungen und Bewertungen dienen dazu, die Planung und Steuerung des Projekts zu optimieren und somit einen effektiven und effizienten Projektablauf zu gewährleisten.

Das Ausnahmeprinzip

Ein weiterer wichtiger Punkt ist das Ausnahmeprinzip von PRINCE2. Es besagt, dass der Projektleiter befugt ist, Entscheidungen zu treffen und Handlungen durchzuführen, solange sie im Einklang mit dem Projektplan und den Projektzielen stehen. Nur bei Abweichungen oder Ausnahmen von diesem Plan muss der Projektleiter die höheren Managementebenen informieren und um Genehmigung bitten.

Fazit

PRINCE2 ist ein sehr ausgereifte und vielfältig einsetzbare Projektmanagementmethode. Sie wird in mehr als 150 Ländern der Erde eingesetzt. Es gibt die klassische Projektmanagement Variante PRINCE2 und die agile Variante PRINCE2 Agile.

News zum Weltquantentag (14.04.2023)

Das Institut der Physik und IOP Publishing feierten am 14.04.2023 den Weltquantentag. Das IOP Publishing wird auch IOPP genannt und stellt öffentlich seine Quantensammlung für die Forschung zur Verfügung.

Die Quantentechnologie entwickelt sich rasch und ähnlich wie bei der künstlichen Intelligenz gibt es neue Felder, wie die Quantenmeteorologie und die Quantenchemie.

Dieses Jahr gab es zwei Preisträger in der Quantenforschung. Die Preisverleihung findet am 25. Mai 2023 statt.

Annabelle Bohrdt von der Universität Regensburg erhielt den International Quantum Technology Emerging Researcher Award. Frau Bohrdt fand neue Ansätze zur Analyse stark korrelierter Quantenmaterie mit Hilfe von Schnappschüssen von Quantenzuständen.

Feihu Xu von der University of Science and Technology of China gewann den International Quantum Technology Early Career Scientist Award für seine hervorragenden Beiträge bei Quantenkommunikation, der Hochgeschwindigkeit-Quantenkommunikation und von Quantennetzwerken. Dazu gehört auch der wichtige Ansatz über Sicherheit in der Quantenkryptographie, der aus meiner Sicht ein wichtiger Schritt zu zukünftiger, sicherer Kommunikation darstellt.

Ich gratuliere beiden Preisträgern zu Ihren hervorragenden Leistungen.

Warum sind diese Entwicklungen wichtig?

Weil hier in den letzten Jahren eine bahnbrechende Weiterentwicklung stattfand. Im Jahr 2020 konnte China die Reichweite bei der Quantenkommunikation verzehnfachen und auf 1.120 Kilometer ausweiten.

Durch die Quantenkryptographie und den Kommunikationsstrecken ohne Verzögerung wird es dem globalen Süden möglich sein, ein globales Neo-Internet aufzubauen, das dem heutigen Internet um Welten überlegen sein wird.

 

 

Continuous Integration und Deployment – CI/CD

Softwareentwicklung geschieht vielfältig und CI/CD spielt bei Anwendungsentwicklern eine wichtige Rolle. Continuous Integration und Deployment (CI/CD) ist ein Prozess in der Softwareentwicklung. So werden Änderungen an einer Anwendung schnell und effizient in die Produktion zu überführt. Dies geschieht durch eine kontinuierliche Integration von Code-Änderungen und Tests, sowie eine automatisierte Bereitstellung von Software-Updates.

In der traditionellen Softwareentwicklung erfolgt die Integration von Code-Änderungen oft erst am Ende des Entwicklungsprozesses. Dies führt oft zu Problemen bei der Integration, da die einzelnen Komponenten der Anwendung nicht richtig miteinander funktionieren. Durch den Einsatz von CI/CD werden Code-Änderungen hingegen kontinuierlich und automatisiert in die Anwendung integriert und getestet.

Continuous Integration (CI)

Continuous Integration (CI) bezieht sich auf den Prozess der kontinuierlichen Integration von Code-Änderungen in ein zentrales Repository. Dabei werden alle Änderungen automatisch gebaut und getestet. So wird sichergestellt, dass sich die Änderungen problemlos in die bestehende Codebasis integrieren lassen. Dadurch können Probleme frühzeitig erkannt und behoben werden.

Continuous Deployment (CD)

Continuous Deployment (CD) geht noch einen Schritt weiter als CI. Es benutzt  Prozesse zur automatisierten Bereitstellung von Anwendungs-Updates. Dabei wird der Code automatisch auf die Produktionsumgebung übertragen und in Betrieb genommen, nachdem er erfolgreich getestet wurde. Dies ermöglicht eine schnelle und effiziente Bereitstellung von Software-Updates. Ausfallzeiten werden minimiert.

Durch den Einsatz von CI/CD können Entwickler die Qualität ihrer Anwendungen verbessern, die Entwicklungszeit verkürzen und die Auslieferung von Software-Updates beschleunigen. Dabei ist es wichtig, dass die Entwickler regelmäßig Änderungen am Code vornehmen und diese Änderungen automatisiert testen. Durch die kontinuierliche Integration und Bereitstellung von Code-Änderungen wird sichergestellt, dass die Anwendung zu jeder Zeit stabil und funktionsfähig bleibt.

Fazit

Zusammenfassend ist Continuous Integration und Deployment ein wichtiger Bestandteil der modernen Softwareentwicklung. Es ermöglicht eine schnelle, sowie effiziente Bereitstellung von Software-Updates. Es hilft Unternehmen, ihre Anwendungen schneller und mit höherer Qualität auf den Markt zu bringen.