Die Ära der Humanoiden Roboter GR-1, sowie die Fortschritte in China und den USA

KI übernimmt die MSM und das Narrativ

Die chinesische Technologiebranche hat einen bemerkenswerten Meilenstein mit der Vorstellung des GR-1, eines humanoiden Roboters von dem Unternehmen Fourier Intelligence erreicht.

Präsentiert auf der World Artificial Intelligence Conference (WAIC) in Shanghai, beeindruckte dieser Roboter mit seiner Fähigkeit, auf zwei Beinen mit 5 km/h zu laufen und dabei eine Last von 50 kg zu tragen. Die Entstehungsgeschichte von Fourier Intelligence, das ursprünglich 2015 mit einem Fokus auf Rehabilitationsrobotik gegründet wurde, zeugt von einer beeindruckenden Diversifikation in ihrem Angebot.

Roboter als Begleiter und Helfer in China

Fourier Intelligence teilt die Vision von Tesla CEO Elon Musk, der humanoiden Robotern eine Rolle in alltäglichen Aufgaben und als Begleiter zuschreibt. Das Unternehmen plant, die GR-1-Roboter für Forschung und Entwicklung einzusetzen, mit dem Ziel, bis Ende des Jahres 2023 in die Massenproduktion zu gehen. Die Vision ist, dass in den nächsten fünf bis zehn Jahren humanoide Roboter zum integralen Bestandteil des täglichen Lebens werden können.

Sicherheitseinsatz von Robotern in den USA

In den USA gewinnen Sicherheitsroboter, insbesondere für den Einsatz in Reaktion auf steigende Kriminalitätsraten, zunehmend an Popularität. Der globale Sicherheitsrobotermarkt wird voraussichtlich bis 2030 auf 31,08 Milliarden Dollar anwachsen, mit einer durchschnittlichen jährlichen Wachstumsrate von 12,8 %. Das ist für Börsenspekulanten und Unternehmen wie Black Rock lukrativ.

Einer der Vorreiter auf diesem Gebiet ist Knightscope, Inc.. Es ist ein fortschrittliches Unternehmen der Sicherheitstechnologie aus dem Silicon Valley. Gegründet im Jahr 2013, nutzt das Unternehmen Technologien wie Autonomie, Robotik, künstliche Intelligenz und Elektrofahrzeugtechnik, um einzigartige Lösungen zu entwickeln. Ihre Technologie hat bereits über 2,3 Millionen Stunden im realen Feldeinsatz verbracht. Zu den Kunden von Knightscope gehören hochkarätige Organisationen wie das New York Police Department (NYPD) und das New York City Fire Department (FDNY).

Knightscope hat im Laufe des Jahres mehrere bedeutende Verträge abgeschlossen, darunter einen mit der Rutgers University in New Jersey sowie einen Pilotvertrag mit dem NYPD für einen K5-Roboter, der eine U-Bahn-Station in Manhattan patrouilliert.

Sicherheitseinsatz von Robotern in der EU

In der Europäischen Union steht die Robotik ebenfalls im Fokus, insbesondere in Bezug auf Sicherheitsanwendungen. Die EU hat in den letzten Jahren in Forschung und Entwicklung im Bereich der Robotertechnologie investiert, mit dem Ziel, die Effizienz und Sicherheit in verschiedenen Sektoren zu verbessern. Obwohl spezifische Pläne und Entwicklungen variieren können, konzentriert sich die EU in der Regel auf die Integration von Robotertechnologie in Bereichen wie der öffentlichen Sicherheit, der Industrie und der Gesundheitsversorgung.

Fazit

Der Fortschritt im Bereich der Robotik, insbesondere der humanoiden Roboter wie der GR-1 aus China und Sicherheitsroboter in den USA und der EU, zeigt das enorme Potenzial dieser Technologien. Während China sich auf die Entwicklung von humanoiden Robotern konzentriert, fokussieren die USA und die EU auf den Einsatz von Robotern zur Verbesserung der öffentlichen Sicherheit und Effizienz.

Quellen
1. Yahoo Finance – Chinese Startup Debuts World’s First Mass-Produced Humanoid Robot at WAIC https://finance.yahoo.com/news/chinese-startup-debuts-world-first-130000324.html?fr=sycsrp_catchall&guccounter=1 

2.  https://fourierintelligence.com

3. https://www.knightscope.com

 

 

Datenbank Modelle ACID und BASE im Vergleich

Datenbanksysteme

In der Welt der Datenbanktechnologien sind zwei zentrale Konzepte weit verbreitet: das ACID-Modell, das typischerweise mit relationalen (SQL) Datenbanken assoziiert wird. Das BASE-Modell wird oft mit NoSQL-Datenbanken in Verbindung gebracht. Diese Modelle definieren die grundlegenden Eigenschaften, die von den jeweiligen Datenbanksystemen erwartet werden.

ACID-Modell

ACID steht für Atomicity, Consistency, Isolation und Durability. Dieses Modell wird in relationalen Datenbankmanagementsystemen (RDBMS) eingesetzt, um die Zuverlässigkeit und Genauigkeit von Transaktionen zu gewährleisten.

  • Atomicity (Atomarität): Jede Transaktion wird als eine einzelne Einheit betrachtet, die entweder vollständig erfolgreich ist oder gar nicht ausgeführt wird.
  • Consistency (Konsistenz): Transaktionen führen eine Datenbank von einem konsistenten Zustand in einen anderen über, ohne die Datenintegrität zu verletzen.
  • Isolation (Isolierung): Gleichzeitig ausgeführte Transaktionen beeinflussen sich nicht gegenseitig.
  • Durability (Dauerhaftigkeit): Sobald eine Transaktion abgeschlossen ist, bleiben die Änderungen dauerhaft erhalten, auch im Falle eines Systemausfalls.

BASE-Modell

BASE steht für Basically Available, Soft State und Eventually Consistent. Dieses Modell wird in NoSQL-Datenbanksystemen verwendet, um Flexibilität, Skalierbarkeit und Verfügbarkeit in verteilten Systemen zu gewährleisten.

  • Basically Available (Grundsätzlich verfügbar): Das System garantiert die Verfügbarkeit von Daten, auch wenn einige Teile des Systems ausgefallen sind.
  • Soft State (Weicher Zustand): Der Zustand des Systems kann sich mit der Zeit ändern, auch ohne Benutzereingriffe.
  • Eventually Consistent (Schließlich konsistent): Das System stellt sicher, dass, wenn keine neuen Updates mehr erfolgen, alle Replikationen der Datenbank nach einiger Zeit konsistent sind.

Vergleichstabelle

Eigenschaft ACID-Modell BASE-Modell
Datenintegrität Hoch Variabel
Flexibilität Gering Hoch
Skalierbarkeit Vertikal Horizontal
Konsistenz Strenge Konsistenz Eventuelle Konsistenz
Transaktionsmanagement Strikt und zuverlässig Locker und anpassungsfähig
Einsatzgebiet Traditionelle Unternehmensanwendungen Verteilte, skalierende Anwendungen

Fazit

Das ACID-Modell bietet hohe Datenintegrität und Zuverlässigkeit, was es ideal für Anwendungen macht, die strenge Konsistenz und Transaktionssicherheit erfordern, wie z.B. Bankensysteme. Allerdings kann es aufgrund seiner strengen Regeln zu Einschränkungen in Bezug auf Flexibilität und Skalierbarkeit kommen.

Im Gegensatz dazu bietet das BASE-Modell eine hohe Flexibilität und Skalierbarkeit, was es ideal für verteilte Systeme und Anwendungen mit großem Datenvolumen und hohen Benutzerzahlen macht, wie soziale Netzwerke oder Echtzeit-Analysen. Die eventuelle Konsistenz kann jedoch zu Herausforderungen in Anwendungen führen, die eine sofortige Datenkonsistenz erfordern.

Letztendlich hängt die Wahl zwischen ACID- und BASE-Modellen von den spezifischen Anforderungen und dem Kontext der jeweiligen Anwendung ab. Beide Modelle haben ihre Berechtigung und bieten unterschiedliche Vorteile, die je nach Einsatzgebiet entscheidend sein können.

 

ITIL – Die Service Strategie

ITIL

Die Service-Strategie von ITIL (Information Technology Infrastructure Library) ist ein wichtiges Element des ITIL-Frameworks.  Es wird eingesetzt, um effektive IT-Services zu planen, zu implementieren und zu managen. Die Service-Strategie fokussiert auf die langfristige Entwicklung und Verbesserung von IT-Services. Damit werden Geschäftsziele zu unterstützt und der Mehrwert für das Unternehmen gesteigert.

Einblick in die Marktanforderungen

Ein Hauptziel der Service-Strategie ist es, einen klaren Einblick in die Marktanforderungen zu gewinnen. Außerdem gilt es zu verstehen, wie IT-Services diese Bedürfnisse am besten erfüllen können. Dies beinhaltet die Identifizierung der Zielkunden, das Verständnis ihrer Bedürfnisse und Präferenzen sowie das Erkennen von Markttrends und -möglichkeiten.

Entwicklung einer Service-Portfolio-Management-Strategie

Ein weiteres zentrales Ziel ist die Entwicklung einer effektiven Service-Portfolio-Management-Strategie. Dies umfasst die Bewertung, Priorisierung und Auswahl von Services, die entwickelt oder verbessert werden sollen. Dazu wird ihre strategische Bedeutung und der potenzielle Wert für das Unternehmen ermittelt. Das Service-Portfolio dient als umfassende Übersicht über alle aktuellen und geplanten Services und hilft dabei, Ressourcen effizient zuzuweisen und Investitionen zu steuern.

Finanzielles Management für IT-Services

Finanzielles Management für IT-Services ist ebenfalls ein wichtiger Bestandteil der Service-Strategie. Dies bezieht sich auf die Planung, Kontrolle und Optimierung der Kosten und des Nutzens von IT-Services. Das Ziel ist es, einen maximalen Wert aus den IT-Investitionen zu ziehen und sicherzustellen, dass die Services kosteneffizient bereitgestellt werden.

Risikomanagement bei ITIL

Risikomanagement ist ein weiteres Ziel der Service-Strategie. Es beinhaltet die Identifizierung, Bewertung und Steuerung von Risiken, die mit der Bereitstellung und dem Betrieb von IT-Services verbunden sind. Durch proaktives Risikomanagement sollen potenzielle Probleme vermieden und die Servicequalität verbessert werden.

Beziehungen der Akteure fördern

Schließlich zielt die Service-Strategie darauf ab, eine starke Beziehung zwischen dem IT-Serviceprovider und den Kunden zu fördern. Dies beinhaltet das Verständnis und das Management von Kundenerwartungen, die Verbesserung der Kommunikation und die Gewährleistung, dass die IT-Services eng an den Geschäftszielen ausgerichtet sind.

Fazit

Zusammenfassend ist die Service-Strategie von ITIL darauf ausgerichtet, eine klare strategische Ausrichtung für die Bereitstellung von IT-Services zu bieten, die sowohl den Geschäftsanforderungen entsprechen als auch einen nachhaltigen Mehrwert für das Unternehmen schaffen.

 

ITIL – Das Lebenszyklusmodell

ITIL

Das ITIL Lebenszyklusmodell verbessert die strategischen Ziele beim Einsatz in Projekten. Um ein qualitativ hochwertiges Service Ergebnis zu liefern, braucht es eine Struktur im Service Management. Die 5 Phasen des Servicelebenszyklusmodells liefern die Verbesserung.

Service Strategy (Service-Strategie)

In dieser Phase wird die IT-Strategie entwickelt, bei der alle IT-Services mit den Geschäftszielen und -anforderungen in Einklang stehen. Es umfasst die Definition des Marktes, die Entwicklung von strategischen Assets und die Vorbereitung auf die Umsetzung der Strategie.

Service Design (Service-Design)

Es werden Services entworfen und entwickelt, die in der Service-Strategie-Phase identifiziert wurden. Dazu gehören die Architektur, Prozesse, Richtlinien und die Dokumentation. Diese Phase stellt sicher, dass der Service effizient, nachhaltig ist. Es können die vereinbarten Geschäftsziele erfüllt werden.

Service Transition (Service-Übergang)

In der Service-Transition-Phase werden neue oder geänderte Services in die produktive Umgebung überführt. Dies umfasst das Change-, Release- ,  Deployment-, sowie das Risiken Management und eine Service-Knowledge-Base.

Service Operation (Service-Betrieb)

Diese Phase konzentriert sich auf den täglichen Betrieb der Services, um sicherzustellen, dass die vereinbarten Service-Level-Ziele erreicht werden. Hier werden Vorfälle und Anfragen bearbeitet, und es wird sichergestellt, dass die Services effektiv und effizient bereitgestellt werden.

Continual Service Improvement (Kontinuierliche Serviceverbesserung)

Diese Phase befasst sich mit der Identifikation, sowie der Umsetzung von Verbesserungen an Services und Service-Management Prozessen über den gesamten Lebenszyklus hinweg. Durch regelmäßige Überprüfungen und Analysen werden Möglichkeiten zur Verbesserung identifiziert. Die Maßnahmen führen zur Steigerung der Effizienz und der Effektivität.

Fazit

Das Servicelebenszyklusmodell von ITIL bietet einen strukturierten Rahmen, um IT-Services durch alle Phasen ihrer Entwicklung und Bereitstellung zu führen. Das gewährleistet eine effektive Abstimmung mit den Geschäftsanforderungen. Die systematische Herangehensweise an die Service-Strategie, -Design, -Transition, -Betrieb und -Verbesserung ermöglicht es Organisationen, die Qualität, Effizienz und Reaktionsfähigkeit ihrer IT-Services zu optimieren.

Der ITIL Servicelebenszyklusmodell erbringt eine proaktive und kontinuierliche Verbesserung der IT-Services. So wird ein dauerhafter Geschäftswert geschaffen und die Kundenzufriedenheit erhöht.

 

 

 

 

ITIL – Die Rollen beim Service Management

ITIL

ITIL (Information Technology Infrastructure Library) ist ein Rahmenwerk für IT-Service-Management (ITSM). Es bietet eine Reihe von Best Practices für die Bereitstellung von IT-Services.

Innerhalb des ITIL-Rahmenwerks gibt es verschiedene Rollen, die auf die Erbringung qualitativ hochwertiger IT-Services abzielen. Hier sind einige der Rollen, die im ITIL-Rahmenwerk definiert sind.

Service Owner

Verantwortlich für die Bereitstellung und das Management eines bestimmten IT-Services über den gesamten Lebenszyklus hinweg.

Process Owner

Verantwortlich für die Definition, das Management und die Verbesserung eines bestimmten IT-Prozesses.

Incident Manager

Verantwortlich für die effektive Verwaltung aller Vorfälle und die Sicherstellung einer schnellen Wiederherstellung des Service.

Problem Manager

Verantwortlich für die Verwaltung des Problemmanagementsprozesses, um die Ursachen von Vorfällen zu identifizieren und zu beheben.

Change Manager

Verantwortlich für die Verwaltung des Änderungsmanagementsprozesses, um sicherzustellen, dass alle Änderungen kontrolliert und effizient umgesetzt werden.

Configuration Manager

Verantwortlich für die Verwaltung der Konfigurationsdatenbank, um sicherzustellen, dass alle Konfigurationsdaten aktuell und genau sind.

Release und Deployment Manager

Verantwortlich für die Planung, den Entwurf, die Erstellung, die Prüfung und die Bereitstellung von Releases.

Service Desk

Dies ist oft die erste Anlaufstelle für Benutzer, die Unterstützung benötigen oder einen Vorfall melden möchten.

Service Level Manager

Verantwortlich für die Verhandlung, Vereinbarung und Überwachung von Service-Level-Vereinbarungen (SLAs) und die Sicherstellung, dass alle operativen Level-Vereinbarungen (OLAs) erfüllt werden.

Continual Service Improvement (CSI) Manager

Verantwortlich für die Identifikation von Verbesserungsmöglichkeiten und die Umsetzung von Verbesserungsinitiativen über den gesamten Service-Lebenszyklus hinweg.

Fazit:

Die Rollen tragen dazu bei, die Qualität und Effizienz von IT-Services zu verbessern, indem sie klare Verantwortlichkeiten und Prozesse festlegen.

 

 

 

ITIL – Wie sind Prozesse definiert?

ITIL

Bei ITIL wird ein „Prozess“ als eine strukturierte Reihe von Aktivitäten definiert, die ein bestimmtes Ziel zu erreichen. Jeder Prozess hat spezifische Eingaben, Ausgaben, Kontrollen und Aktivitäten. Diese tragen dazu bei, ein gewünschtes Ergebnis zu erzielen.

Es gibt Eigenschaften, die ITIL-Prozesse definieren:

Messbarkeit

Ein Prozess sollte messbare Ergebnisse liefern, sodass seine Effektivität und Effizienz bewertet werden kann.

Ergebnisse

Ein Prozess liefert ein spezifisches Ergebnis. Dieses Ergebnis unterscheidet den Prozess von anderen Formen der Arbeit.

Kunde

Jeder Prozess hat einen Empfänger oder Kunden, der von dem Ergebnis des Prozesses profitiert.

Auslöser und Anpassung

Prozesse sollten über Mechanismen verfügen, um Feedback zu sammeln und Anpassungen basierend auf diesem Feedback vorzunehmen, um die Effektivität und Effizienz des Prozesses kontinuierlich zu verbessern.

Operativ

Prozesse sind operativ und wiederholbar, um konstante und vorhersehbare Ergebnisse zu liefern.

Fazit

Innerhalb von ITIL gibt es viele definierte Prozesse, die sich auf verschiedene Aspekte des IT-Service-Managements beziehen. Von der Service-Strategie, über das Service-Design und die Service-Transition, bis hin zum Service-Betrieb und der kontinuierlichen Service-Verbesserung.

Jeder dieser Prozesse hat spezifische Aufgaben, Werkzeuge und Ziele. Diese tragen dazu bei, den Gesamtwert des IT-Service-Managements für eine Organisation zu maximieren.

 

 

 

ITIL – Was sind Services?

ITIL

Bei ITIL (Information Technology Infrastructure Library) sind Services eine zentrale Komponente von Dienstleistungen. Ein „Service“ in ITIL bezeichnet eine Möglichkeit, Werte zu schaffen. Die vom Kunden gewünschten Ergebnisse werden erreicht, ohne dass der Kunde die Kosten und Risiken selbst tragen muss.

Services in ITIL können in zwei Hauptkategorien unterteilt werden:

IT-Services

Diese beziehen sich speziell auf die Lieferung von IT-bezogenen Ergebnissen, wie die Installation und Konfiguration eines Mailservers. Ein Beispiel wäre ein E-Mail-Hosting-Service.

Unterstützende Services

Manche Services sind nicht direkt IT-bezogen. Sie tragen jedoch dazu bei, dass der IT-Service wie vorgesehen funktioniert. Ein Beispiel könnte ein Helpdesk oder ein Schulungsservice sein.

 

Services in ITIL beinhalten nicht nur technologische Komponenten, sondern auch Personen, Prozesse und weitere Ressourcen die zur Erbringung der Dienstleistung erforderlich sind.

 

 

IoT, Big Data und BI

In der modernen Geschäftswelt nimmt die Bedeutung von Daten stetig zu. Insbesondere durch die Entwicklung des Internets der Dinge (IoT) hat sich das Potenzial zur Datenerfassung und -analyse erheblich erweitert. IoT-Geräte, von Sensoren in Fabriken bis hin zu smarten Geräten im Einzelhandel und Industrie, ermöglichen es Unternehmen, kontinuierlich Daten in Echtzeit zu sammeln. Diese Daten bieten wertvolle Einblicke in verschiedene Business Prozesse und können dazu beitragen, diese Prozesse zu optimieren, die Effizienz zu steigern und letztlich den Gewinn zu maximieren.

Nachdem die Daten von den IoT-Geräten erfasst wurden, müssen sie verarbeitet und für Analysen vorbereitet werden. Hier kommt der ETL-Prozess ins Spiel. ETL steht für „Extrahieren, Transformieren und Laden“ (Extract, Transform and Load).

Extrahieren

Im ersten Schritt werden die Daten aus den unterschiedlichsten Quellen gesammelt.

Transformieren

Anschließend werden diese Daten bereinigt, transformiert und in ein standardisiertes Format überführt.

Laden

Schließlich werden die transformierten Daten in ein Data Warehouse (DWH)  geladen. Das ist eine spezialisierte Datenbank, die dafür optimiert ist, große Mengen von Daten zu speichern und komplexe Abfragen effizient auszuführen.

 

Sobald die Daten im Data Warehouse liegen, können sie mit Analyse-Tools wie QlikView geladen werden. QlikView ist eine Business-Intelligence-Plattform, die es Nutzern ermöglicht, Daten zu visualisieren, Dashboards zu erstellen und durch Analyse tiefe Einblicke in ihre Daten zu gewinnen. Unternehmen können QlikView verwenden, um Muster und Trends in ihren Daten zu identifizieren, was letztlich zu fundierteren Entscheidungen und besseren Geschäftsergebnissen führt.

Fazit

Durch die Kombination von IoT-gewonnenen Daten, dem ETL-Prozess und Analyse-Tools wie QlikView können Unternehmen wertvolle Erkenntnisse aus ihren Daten ziehen und ihre Geschäftsprozesse kontinuierlich verbessern. Dieser Prozess bietet nicht nur eine verbesserte Effizienz, sondern auch die Möglichkeit, auf verändernde Marktbedingungen und Kundenbedürfnisse proaktiv zu reagieren.

 

 

Vergleich von Skizzen, Wireframes, Mock-ups und Prototypen

GUI Entwicklung

In den 1970er Jahren führte das Xerox Palo Alto Research Center in der Software Entwicklung Konzepte wie Fenster und Icons ein, die von Apple im Macintosh von 1984 bekannt gemacht wurden. Später trugen IBM, sowie Microsoft mit OS/2 und Microsoft mit der Einführung von Windows in den 1980er Jahren zur Verbreitung von GUIs bei. Auch Commodore mit dem Amiga und Atati mit dem Model ST entwickelten hervorragende GUIs.

Durch das Aufkommen des Internets mit HTML wurden in den 1990er Jahren webbasierte Oberflächen gefördert. Die mobile Revolution, angeführt durch Geräte wie Apples iPhone, prägte die 2000er Jahre mit der Entwicklung von Touchscreen-orientierten GUIs auf mobilen Geräten. Heute setzen moderne Trends in Bereichen wie KI, Augmented und Virtual Reality, sowie Responsive Design neue Maßstäbe. Dies ermöglicht eine immer nahtlosere Integration von Geräten und Plattformen.

Bei der Softwareentwicklung werden Skizzen, Wireframes, Mock-ups und Prototypen in verschiedenen Phasen des Designs verwendet, um Ideen und Konzepte zu visualisieren. Hier sind die Unterschiede:

Skizzen

Eine Skizze ist eine handgezeichnete oder grobe digitale Darstellung einer Idee. Ein Designer zeichnet schnell ein paar Striche auf ein Papier, um die grundlegende Anordnung von Elementen auf einer Seite darzustellen. In dieser frühen Phase können grundlegende Ideen gefunden werden.

Design Skizze zur Planung

Wireframes

In dieser Phase der Konzeption werden die Struktur und Funktionalität definiert. So folgt eine detailliertere, schematische Darstellung der Benutzeroberfläche in Schwarz-Weiß. Ein Wireframe zeigt die Position von Menüs, Schaltflächen und Textblöcken, aber noch ohne Farben oder Bilder.

Wireframe bei der Entwicklung

Mock-ups

Nun wird die Designphase genutzt, um das visuelle Erscheinungsbild zu entwickeln. Eine realistische, aber statische Darstellung des Designs mit Farben, Bildern und Typografie wird gesucht. Ein Mock-up einer mobilen App zeigt, wie die Endversion aussehen könnte, ist aber nicht interaktiv.


Mockup

Prototypen

Die letzte Entwicklungsphase nutzt Prototypen, um Benutzerinteraktionen zu testen und Feedback zu sammeln. Es wird eine funktionierende Simulation des Produkts, die Interaktion ermöglicht. Ein Prototyp, auf dem Nutzer klicken können, um durch die Seiten zu navigieren und erfahren, wie die GUI in der Endversion sein wird.

Fazit

Insgesamt sind diese Tools Schritte in einem Prozess, der von einer groben Idee (Skizze / Stetch) über ein strukturiertes Layout (Wireframe) und ein realistisches Design (Mock-up) bis hin zu einer funktionierenden Version (Prototyp) reicht, die die endgültige Benutzererfahrung simuliert.

 

Netzwerk Kabel mit metallischen Leitern

Netzwerkkabel

Netzwerkkabel spielen eine zentrale Rolle bei der Verbindung von Geräten in einem Computernetzwerk. Sie stellen sicher, dass Daten effizient und zuverlässig übertragen werden. Unter den verschiedenen Arten von Netzwerkkabeln sind STP (Shielded Twisted Pair) und UTP (Unshielded Twisted Pair) die gängigsten. Beide haben ähnliche Designs und bestehen aus gedrehten Kabelpaaren, unterscheiden sich jedoch in Bezug auf Abschirmung und EMI (elektromagnetische Interferenzen) Widerstandsfähigkeit.

In Deutschland ist der Einsatz von STP-Kabeln besonders weit verbreitet. Durch die zusätzliche Abschirmung der Kabel bieten sie einen besseren Schutz vor äußeren elektromagnetischen Störungen und sorgen für eine stabilere und zuverlässigere Datenübertragung. Besonders wichtig ist dies in Umgebungen mit hohem EMI-Aufkommen. Daher werden STP abgeschirmte Kabel oft in industriellen oder kommerziellen Umgebungen eingesetzt, wo diese Art von Störungen häufiger sind.

Im Vergleich dazu sind UTP-Kabel weniger anfällig für physische Schäden, weil sie technischer einfacher aufgebaut sind.  Dieser Kabeltyp ist flexibler und einfacher zu installieren.

Sowohl STP- als auch UTP-Kabel haben ihre spezifischen Vorzüge. Ihre Auswahl hängt von der spezifischen Netzwerkumgebung und den Anforderungen ab.

Tabelle von Netzwerkkabel Typen

Kat. Max. Frequenzbereich Geschwindigkeit Anwendungs-bereich Stecker
Cat 1 n/a Bis zu 1 Mbps Ältere Telefonleitungen RJ11
Cat 2 1 MHz Bis zu 4 Mbps Ältere Telefonleitungen und Netzwerke RJ11, RJ45
Cat 3 16 MHz Bis zu 10 Mbps Ältere Telefonleitungen und Netzwerke RJ45
Cat 4 20 MHz Bis zu 16 Mbps Ältere Netzwerke (Token Ring) RJ45
Cat 5 100 MHz Bis zu 100 Mbps Heim- und Büronetzwerke RJ45
Cat 5e 100 MHz Bis zu 1 Gbps Heim- und Büronetzwerke RJ45
Cat 6 250 MHz Bis zu 1 Gbps (10 Gbps bei kurzen Distanzen) Büronetzwerke, Rechenzentren RJ45
Cat 6a 500 MHz Bis zu 10 Gbps Rechenzentren, großflächige Netzwerke RJ45
Cat 7 600 MHz Bis zu 10 Gbps Rechenzentren, großflächige Netzwerke GG45, TERA
Cat 7a 1000 MHz Bis zu 10 Gbps Rechenzentren, großflächige Netzwerke GG45, TERA
Cat 8.1 2000 MHz Bis zu 40 Gbps Rechenzentren RJ45
Cat 8.2 2000 MHz Bis zu 40 Gbps Rechenzentren ARJ45

Alternativ kann eine Verkabelung mit Lichtwellenleitern durchgeführt werden.

 

 

 

 

Der ETL Prozess bei Big Data

ETL Prozess

Der ETL-Prozess ist eine Abkürzung für Extraktion, Transformation und Laden. Es ist ein wesentlicher Aspekt der Datenverwaltung und insbesondere der Verarbeitung von Daten bei Big Data.

Schaubild des ETL Prozesses

Er beginnt mit der Extraktion von Daten aus verschiedenen Quellen, die strukturiert, halbstrukturiert oder unstrukturiert sein können.

Nach der Extraktion werden die Daten transformiert, das heißt, sie werden gereinigt, bereinigt, validiert und in ein Format überführt, das von der Ziel-Datenbank gelesen werden kann. Dieser Schritt kann auch die Anreicherung von Daten mit zusätzlichen Informationen und die Durchführung komplexer Berechnungen beinhalten.

Schließlich werden die transformierten Daten in eine Zieldatenbank oder ein Data Warehouse geladen, wo sie für die Anwender im Intranet  zu Analyse- und Auswertungszwecken leicht zugänglich sind.

 

 

Deutschlands Niedergang beim Quantencomputing

Quantencomputing - Wie ist die Entwicklung in Deutschland?

Deutschlands Rückfall im Bereich des Quantencomputings kann maßgeblich auf die Politik der Bundesregierung zurückgeführt werden.  Diese hat zugesagte Fördergelder (2018, 2021, ) gestrichen. So werden durch die Regierung und Politik unzureichende Ressourcen und fehlgeleitete Strategien gewählt, um die Entwicklungen in diesem zukunftsweisenden Technologiebereich zu unterstützen.

Obwohl Deutschland über eine starke Forschungsinfrastruktur und renommierte Institutionen verfügt, hat das Fehlen zielgerichteter Investitionen, die Einbeziehung der Industrie und die Schaffung eines förderlichen regulatorischen Umfelds die nationale Kompetenz im Quantencomputing beeinträchtigt und wird das Land gegenüber internationalen Mitbewerbern weiter ins Hintertreffen bringen.

Denn die Steuergelder werden von den US-Vasallen für kriegstreibende Maßnahmen und Massenmord ausgegeben, von denen die deutsche Bevölkerung nur Schaden  hat. Die staatlichen Gelder fließen über NGOs in die USA, sowie zu westlichen Konzernen und in die Taschen von westlichen Oligarchen.

Somit zählen die Aussagen der deutschen Regierung bei diesem Thema zur Propaganda, die der Artikel vom 27.04.2023 in heise online zeigt. Es wird nicht nur die Industrie, sondern auch der Forschungsbereich in Deutschland abgebaut. Das ist sicher einer der Gründe, warum im Jahr  2022 125 Milliarden Euro Investitionen von Deutschland ins Ausland geflossen sind und immer mehr Betriebe ins Ausland umziehen. Die Investitionen in Deutschland betrugen im gleichen Zeitraum nur noch 10,5 Milliarden Euro. Denn in Deutschland sind die Strom-, Gas- und Treibstoffpreise durch eine fehlgeleitete Politik der deutschen US-Politmarionetten und den Terroranschlägen auf die North Stream Pipelines extrem hoch. Daher existiert seitdem die Abhängigkeit von den USA. Denn Deutschland ist der größte Abnehmer des US Fracking Gases mit schlechter Qualität und seit dem von der deutschen Regierung zugelassenen Terroranschlag auf North Stream eine abhängige Kolonie der USA.

So ist der Niedergang Deutschlands und der zunehmende Wegzug von Unternehmen aus Deutschland einfach zu verstehen. Denn die USA sind kein Partner, weil sie die deutsche Industrie und den Mittelstand massiv beschädigt haben und nun werden die Reste der deutschen Unternehmen mit Fördergeldern in die USA gelockt.

 

 

 

Agiles Projektmanagement mit Kanban

Kanban Logo

Kanban ist eine Methodik zur Optimierung von Arbeitsabläufen, die ursprünglich in der japanischen Automobilindustrie entwickelt wurde. Sie basiert auf dem Prinzip der visuellen Darstellung von Aufgaben, deren Status und Fortschritt, meist auf einem „Kanban-Board“. Dies hilft dabei, Engpässe zu identifizieren, die Arbeitslast zu regulieren und die Effizienz des Teams zu steigern

Wie funktioniert Kanban?

Ein Kanban-System ist ziemlich einfach aufgebaut. Es besteht normalerweise aus einem physischen oder digitalen Kanban-Board und darauf platzierten Kanban-Karten.

Kanban Tafel

Das Kanban-Board ist in mehrere Spalten unterteilt, die den unterschiedlichen Stadien des Arbeitsprozesses entsprechen. Die einfachste Form hat drei Spalten: „Zu erledigen“ (To Do), „In Arbeit“ (In Progress) und „Erledigt“ (Done).

Jede Aufgabe im Arbeitsprozess wird auf einer separaten Kanban-Karte dargestellt. Diese Karte enthält Informationen wie die Aufgabenbeschreibung, den verantwortlichen Mitarbeiter, das Startdatum und das Fälligkeitsdatum.

Wenn eine neue Aufgabe ansteht, wird sie als Karte in die „Zu erledigen„-Spalte eingefügt. Wenn jemand an der Aufgabe arbeitet, wird die Karte in die „In Arbeit„-Spalte verschoben. Sobald die Aufgabe abgeschlossen ist, wird die Karte in die „Erledigt„-Spalte verschoben.

Beispiel zur Nutzung von Kanban

Angenommen, Sie sind Teil eines Softwareentwicklungsteams. Die Kanbantafel des Teams könnte so aussehen:

Zu erledigen
1. Funktion zur Benutzeranmeldung erstellen
2. Datenbank für Benutzerinformationen einrichten
3. Design der Startseite entwerfen

In Arbeit
1. Backend für die Benutzeranmeldung entwickeln
2. Testen der Anmeldungs- und Abmeldefunktionen

Erledigt
1. Spezifikationen für die Anwendungsfälle erstellen
2. Entwurf des Anmeldeformulars

Jeder im Team kann den Status jeder Aufgabe auf der Kanbantafel sehen und so schnell erkennen, welche Aufgaben Priorität haben und wer gerade welche Aufgabe bearbeitet.

Die Grundregel des Kanban-Systems ist es, die Anzahl der gleichzeitig „in Arbeit“ befindlichen Aufgaben zu begrenzen. Diese Begrenzung wird als „Work in Progress“ (WIP) -Limit bezeichnet. Das hilft, Überlastung zu vermeiden und sicherzustellen, dass Aufgaben vollständig abgeschlossen werden, bevor neue Aufgaben in Angriff genommen werden.

Es können Engpässe während der Entwicklung schnell erkannt werden und dadurch können passende Gegenmaßnahmen zur Verbesserung umgesetzt werden.

Fazit

Der Einsatz von Kanban in der Softwareentwicklung bietet eine einfache, aber effektive Methode zur Visualisierung und Kontrolle des Arbeitsflusses. Es fördert Transparenz, Zusammenarbeit und unterstützt die kontinuierliche Verbesserung. Durch die Einführung von WIP-Limits kann Kanban dabei helfen, Multitasking zu vermeiden und die Produktivität zu steigern. Insgesamt kann Kanban wesentlich dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Entwicklungszeiten zu verkürzen.

 

 

Die Entwicklungsphasen von DevOps

DevOps Logo

DevOps wird genutzt, um die Zusammenarbeit zwischen den Teams für Softwareentwicklung und IT-Betrieb zu verbessern.  DevOps fördert einen kontinuierlichen, automatisierten und schnellen Entwicklungs- und Bereitstellungsprozess.

Es reduziert die Zeit bis zur Markteinführung und erhöht die Softwarequalität durch frühzeitige Fehlererkennung und schnelle Korrektur. Darüber hinaus ermöglicht es die kontinuierliche Überwachung und Optimierung der Systeme. Das führt zu einer höheren Kundenzufriedenheit und einer verbesserten Geschäftsleistung.

Phasen von DevOps

Planung: Definiere Ziele und skizziere den technischen und wirtschaftlichen Plan für das Projekt.
Codierung: Schreibe und überprüfe den Code unter Berücksichtigung der geplanten Spezifikationen und Standards.
Build: Kompiliere den Code, um die Lauffähigkeit herzustellen.
Test: Überprüfe und teste den Code auf Fehler und Leistungsprobleme.
Release: Setze die Änderungen in einer kontrollierten Umgebung frei. Überwache den Prozess, um sicherzustellen, dass es keine unvorhergesehenen Probleme gibt.
Deployment: Implementiere den Code in der Produktivumgebung, überwache seine Leistung und seine Auswirkungen.
Betrieb: Überwache und verwalte die Infrastruktur und die genutzten Anwendungen in der Produktionsumgebung.
Monitoring: Überwache die Leistung, sowie das Verhalten der Anwendung in der Produktionsumgebung und dokumentiere alle Probleme oder Ausfälle. Sie werden in zukünftigen Iterationen zu behoben. Sammle dabei Feedback und verwende es, um die Prozesse kontinuierlich zu verbessern (KVP).

Die Phasen bei DevOps wiederholen sich iterativ.

Fazit

DevOps stellt einen neuartigen Ansatz in der Softwareentwicklung und dem Operations Bereich dar, indem es eine nahtlose Integration und Zusammenarbeit zwischen den beiden Bereichen ermöglicht. Durch die Förderung von Geschwindigkeit, Effizienz und Qualität in der Softwarebereitstellung verbessert DevOps die Agilität und Reaktionsfähigkeit von Unternehmen. Das führt zu einer höheren Kundenzufriedenheit und verbesserten Geschäftsergebnissen. Trotz seiner Komplexität und der Notwendigkeit einer sorgfältigen Implementierung ist DevOps eine wertvolle agile Entwicklungsmethode, die den Weg für kontinuierliche Innovation und Verbesserung ebnet.

 

 

Requirements Mangement

Requirements Management Logo

Die Anfänge des Requirements Managements lassen sich auf die 1970er Jahre zurück verfolgen. Die Komplexität der Systeme begann, handgeschriebene Dokumentation und einfache Verwaltungstechniken zu übersteigen. In den 1980er und 1990er Jahren wurden strukturierte Methoden wie die Objektorientierung und spezialisierte Tools entwickelt, um die Verwaltung von IT Anforderungen zu formalisieren und die Nachverfolgbarkeit zu verbessern. In jüngerer Zeit hat der Aufstieg von agilen Entwicklungspraktiken das Requirements Management weiterentwickelt. Es wird ein kontinuierlicher, iterativer Ansatz zur Anforderungserfassung und -anpassung unterstützt.  So kann einfacher auf Änderungen reagieren werden.

Was ist Requirements Management?

Requirements Management bezieht sich im Bereich der Softwareentwicklung auf das Verstehen, Dokumentieren, Verfolgen und Aktualisieren von Anforderungen (engl. requirements). Diese Anforderungen können funktionale oder nichtfunktionale Eigenschaften sein. Ein Softwareprodukt muss diese Anforderungen erfüllen, um den Wünschen der Auftraggeber und Stakeholder zu entsprechen.

Aufgaben des Requirements Management

  • Erfassung und Dokumentation von Anforderungen in einem verständlichen und messbaren Format
  • Priorisierung von Anforderungen basierend auf den Bedürfnissen der Stakeholder
  • Verfolgen von Änderungen in den Anforderungen während des gesamten Projektzyklus
  • Sicherstellung, dass alle Anforderungen während der Entwicklung und beim Testen berücksichtigt werden
  • Verwaltung von Kommunikation und Übereinstimmung zwischen den Stakeholdern hinsichtlich der Anforderungen

Fazit

Gutes Requirements Management und Kommunikation kann dazu beitragen Missverständnisse zu minimieren, sowie das Risiko von Fehlern zu reduzieren und die Qualität der Produkte zu verbessern.

 

 

Entwicklung bei Quantencomputern

Bei Quantencomputer wird weltweit geforscht und weiter entwickelt. Aber wie kam man auf diese Technologie?

Quantencomputer wurden nicht durch eine einzelne Erfindung geschaffen, sondern sie sind das Ergebnis eines kontinuierlichen Fortschritts in der Quantenphysik und der Computertechnologie. Die Idee eines Quantencomputers geht auf die frühen Arbeiten von Physikern wie Richard Feynman und Yuri Manin zurück. Sie erkannten in den 1980er Jahren, dass Quantenmechanik eine potenzielle Grundlage für leistungsfähigere Computer bieten könnte.

1994 entwickelte Peter Shor erfolgreich einen Algorithmus, der auf einem Quantencomputer die Faktorisierung großer Zahlen effizienter durchführen könnte. Dieser Algorithmus zeigte das Potenzial von Quantencomputern für bestimmte Berechnungen. Das Beispiel des Shor Algorithmus finden Sie auf: Wie funktionieren Quantencomputer?

In den folgenden Jahrzehnten haben Forscher auf der ganzen Welt kontinuierlich an der Entwicklung von Quantencomputern gearbeitet. Es wurden verschiedene Technologien und Ansätze verfolgt, darunter die Verwendung von Ionenfallen, supraleitenden Schaltkreisen, topologischen Qubits und anderen Methoden. Dazu ein Beispiel vom Weltquantentag.

Um einen produktiv nutzbaren Quantencomputer herzustellen, gibt es noch viele technische und theoretische Herausforderungen zu meistern. Dennoch haben Quantencomputer bereits vielversprechende Ergebnisse erzielt und werden voraussichtlich in Zukunft einen erheblichen Einfluss auf Bereiche wie Kryptographie, Materialwissenschaften, Optimierung, Wetter- und Erdbebenprognosen und maschinelles Lernen haben.

News zur Quantenforschung bei IBM

IBM entwickelt in Zusammenarbeit mit UC Berkely einen 127 Qubit Quantenprozessor. Dabei gibt es noch einige Probleme zu lösen, wie sie in dem nachfolgenden Video entnehmen können.

Quantenforschung in Deutschland

Auch in Deutschland findet Forschung zu Quantencomputern statt. Hier gibt es eine Übersicht aus der deutschen Forschung, die Abstrakt präsentiert wird 😉

Intels Tunnel Falls Quanten Prozessor

Intel präsentierte vor kurzem einen 12 Qubit Prozessor, der Tunnel Falls genannt wird. Dazu gibt es interessante Neuigkeiten.

Fazit

Bei den Quantencomputer braucht es noch einige Zeit, um produktive Geräte herstellen zu können. Die Preisträger zum Weltquantentag kamen aus China und Deutschland.