Die Kardinalität bei dem ER Modell mit SQL

Bei der Entwicklung mit dem ER- Modell ist nicht ersichtlich, in welcher Beziehung die Entitäten stehen. Die (min, max)-Notation wird genutzt, um die Beziehungen zwischen Entitäten zu definieren. Die Notation gibt an, wie viele Instanzen einer Entität in Beziehung zu einer bestimmten Anzahl von Instanzen einer anderen Entität stehen können.

  • Die „min“ – Zahl gibt an, wie viele minimale Instanzen einer Entität in Beziehung zu einer anderen Entität stehen müssen.
  • Die „max“ – Zahl gibt an, wie viele maximale Instanzen einer Entität in Beziehung zu einer anderen Entität stehen können.

Die 1:1 Kardinalität bedeutet beispielsweise, dass es nur eine Instanz der Entität auf der einen Seite und eine Instanz der Entität auf der anderen Seite geben kann.

Die 0:1 Kardinalität bedeutet hingegen, dass es eine oder keine Instanz einer Entität auf der einen Seite geben kann, aber maximal eine Instanz auf der anderen Seite.

Die 1:n Kardinalität beschreibt eine Beziehung zwischen Entitäten, bei der eine Instanz einer Entität mit vielen Instanzen einer anderen Entität in Beziehung steht. Dies wird oft durch die Verwendung von Fremdschlüsseln realisiert, die auf den Primärschlüssel der anderen Entität verweisen.

Die n:m Kardinalität beschreibt eine Beziehung zwischen Entitäten, bei der viele Instanzen einer Entität mit vielen Instanzen einer anderen Entität in Beziehung stehen. Die Beziehung wird über eine Zuordnungstabelle (Zwischentabelle) realisiert, die eine Verbindung zwischen den beiden Entitäten herstellt.

Die Kardinalität der (min, max) – Notation ist ein wichtiger Aspekt bei der Datenmodellierung, da sie die Beziehungen zwischen den Entitäten genau beschreibt. Sie hilft bei der Identifizierung von Datenintegritätsproblemen, indem sie sicherstellt, dass die Daten in einer bestimmten Beziehung konsistent bleiben.

Es ist wichtig zu beachten, dass die (min, max) – Notation nicht immer ausreichend ist, um komplexe Beziehungen zwischen Entitäten zu beschreiben. In solchen Fällen können zusätzliche Regeln und Einschränkungen erforderlich sein, um sicherzustellen, dass die Daten konsistent und korrekt sind. Sie hilft bei der Identifizierung von Integritätsproblemen von Daten und stellt sicher, dass die Daten in einer bestimmten Beziehung konsistent bleiben.

 

Übersicht der Elemente beim ER Modell

Das ER-Modell (Entity-Relationship-Modell) ist eine Methode zur Modellierung von Datenbanken. Es besteht aus drei Grundkonzepten: Entitäten (Objekte), Beziehungen (Verbindungen zwischen Objekten) und Attributen (Eigenschaften von Objekten).

Das ER-Modell hilft bei der klaren und einheitlichen Darstellung von Datenbankstrukturen und unterstützt bei der Planung, Umsetzung und Wartung von Datenbanken.

Entität Eine Entität ist ein Ding oder Objekt der realen Welt.
Attribut Attribute sind Eigenschaften von Entitäten und besitzen einen Wert.
Primärschlüssel Attribute sind durch die Unterstreichung  als Primärschlüssel gekennzeichnet.
Beziehung Beziehungen zeigen die Kommunikation und Abhängigkeiten von Entitäten auf.
Ist-ein oder Is-a Die Ist-ein oder Is-a Beziehung entspricht einer Generalisierung oder Verallgemeinerung. Zum Beispiel ist ein Fahrzeug ein PKW oder ein Motorrad.
Teil-von oder Part-of Die Teil-von oder Part-of Beziehung entspricht einer Aggregation. Zum Beispiel besteht ein Smartphone aus einem Akku, einem Display …

Besonderheit bei der Ist-ein oder Is-a Beziehungen

Disjunkt

Wenn sich zwei Entitätsmengen in der Datenbank nicht überlappen, wird dies „disjunkt“bezeichnet. Das heißt, es gibt keine Entitäten, die gleichzeitig in beiden Entitätsmengen vorkommen.

Nicht Disjunkt

„Nicht disjunkt“ hingegen bedeutet, dass sich zwei Entitätsmengen in der Datenbank überlappen können. Das bedeutet, dass es Entitäten geben kann, die in beiden Entitätsmengen vorkommen können.

Total

Eine „totale“ Beteiligung bedeutet, dass jede Entität in einer Entitätsmenge an einer Beziehung teilnehmen muss. Mit anderen Worten, eine Entität in der Entitätsmenge kann nicht existieren, ohne an der Beziehung teilzunehmen. Es gibt also keine weiteren Teilmengen.

Partiell

Eine „partielle“ Beteiligung bedeutet hingegen, dass nicht alle Entitäten in einer Entitätsmenge an einer Beziehung teilnehmen müssen. Mit anderen Worten, eine Entität in der Entitätsmenge kann existieren, ohne an der Beziehung teilzunehmen. Es gibt hier weitere Teilmengen.

 

Hier ein Beispiel: Ein Fahrzeug ist ein PKW oder ein LKW oder ein Motorrad. Die Beziehung ist damit disjunkt und partiell.

 

Grundprinzipien der Objektorientierung

Die Objektorientierung ist ein Ansatz in der Informatik, der auf der Idee beruht, dass Software als eine Sammlung von Objekten betrachtet werden kann, die jeweils eigene Zustände und Verhaltensweisen haben. Diese Objekte können miteinander interagieren und dadurch komplexe Systeme bilden.

Das Ansatz der Objektorientierung basiert auf vier Grundprinzipien:

Abstraktion

Abstraktion bezieht sich darauf, dass Objekte in der Softwareentwicklung vereinfacht dargestellt werden können, um nur die relevanten Informationen und Funktionalitäten darzustellen.

Vererbung

Vererbung ermöglicht es, dass Objekte bestimmte Eigenschaften und Verhaltensweisen von anderen Objekten erben können, die in der Hierarchie über ihnen liegen.

Polymorphie

Polymorphie beschreibt die Möglichkeit, dass Objekte je nach Kontext unterschiedliche Formen annehmen können und auf verschiedene Arten verwendet werden können.

Kapselung

Kapselung bezieht sich auf die Idee, dass Objekte ihre internen Zustände und Verhaltensweisen vor externen Einflüssen schützen können. Dadurch können sie nur bestimmte Methoden zur Interaktion mit der Außenwelt freigeben.

Dazu gibt es weitere wichtige Konzepte:

Klassifikation

Die Klassifikation ist ein Prozess der Zuordnung von Objekten zu vordefinierten Klassen. Die basiert auf der Grundlage ihrer Eigenschaften und Merkmale. Es ist ein wichtiger Bestandteil bei Data Mining und Machine Learning, um Muster und Beziehungen in Daten zu erkennen und Vorhersagen zu treffen.

Aggregation

Aggregation bezieht sich auf die Zusammenfassung von Daten oder Objekten zu einer hierarisch höheren Ebene der Abstraktion. Dadurch wird die Analyse und Verarbeitung von komplexen Datenstrukturen auf einer vereinfachten Ebene ermöglicht.

Generalisierung

Generalisierung ist ein Prozess, bei dem eine allgemeine Klasse von Objekten definiert wird. Diese wird als Basisklasse oder Superklasse bezeichnet.  Von so einer Basisklasse können andere spezifischere Klassen von Objekten abgeleitet werden. Diese werden als ‚abgeleitete Klassen‘ oder Subklassen bezeichnet. Das ermöglicht die gemeinsame Verwendung von Attributen und Methoden in verschiedenen Klassen und fördert die Wiederverwendbarkeit von Code.

Assoziation

Assoziation beschreibt die Beziehung zwischen zwei oder mehr Objekten, die zusammenarbeiten, um eine bestimmte Aufgabe zu erfüllen. Dadurch wird die Modellierung komplexer Beziehungen zwischen Objekten ermöglicht und  dies trägt zur Flexibilität und Erweiterbarkeit von Software-Systemen bei.

Identifikation

Identifikation bezieht sich auf die eindeutige Zuweisung eines Namens oder einer Identität zu einem Objekt, um es von Anderen zu unterscheiden. Dies ermöglicht die Manipulation und Verarbeitung von Objekten in Software.  So unterstützt die Umsetzung objektorientierte Konzepte, wie Polymorphie und Vererbung.

Fazit:

Die Objektorientierung hat zahlreiche Vorteile, darunter eine hohe Modularität, gute Wiederverwendbarkeit von Code und eine vorzügliche Wartbarkeit. Die Objektorientierung wird in Programmiersprachen wie z.B. in Java, Python und C++ eingesetzt und hat sich als eine der wichtigsten Konzepte in der Softwareentwicklung entwickelt.

 

Relationale Datenbanken entwerfen

Der Entwurf relationaler Datenbanken spielt für Datenbankentwickler eine wichtige Rolle. Dabei wird das 3-Ebenen Modell eingesetzt. Das besteht aus drei Ebenen. Dies sind die externe-, die konzeptionelle- und die interne Ebene. Um die Entwicklung zu vereinfachen, wird häufig das Entity-Relationship Modell eingesetzt. Das wird auch ER-Modell oder ERM genannt.

Der Entwicklungsprozess

Der gesamte Entwicklungsprozess besteht aus mehreren Phasen.

AnforderungsanalyseDatenbank EntwicklungsprozessAnforderungsanalyse

Die Anforderungsanalyse beginnt damit, dass alle Anforderungen der Akteure gesammelt und ausgewertet werden. Dabei können die Akteure in Gruppen geordnet werden. Dabei stellen sich die W-Fragen:

  • Welche Daten werden verarbeitet?
  • Wie werden die Daten verarbeitet?
  • Was ist in der Datenbank abzulegen?
  • Welche Daten werden Wem zur Verfügung gestellt?
  • Wo werden die Daten verarbeitet und wo gespeichert?
  • Wann finden welche Prozesse statt?
  • Wer führt welche Tätigkeiten durch?

Konzeptioneller Entwurf

Beim konzeptionellen Entwurf gibt es verschiedene Vorgehensmodelle. Oft wird die Top-Down- oder die Bottom-Up Methode eingesetzt. Hier werden die Daten, die Prozesse, die Abhängigkeiten in Beziehung gebracht. Jetzt ist der richtige Moment zu entscheiden, welches Datenbank System (DBS) eingesetzt wird, außer die Anforderungen haben dies bereits festgelegt.

Logischer Entwurf

Beim logischen Entwurf findet die Umsetzung des konzeptionellen Schemas statt. Die häufigsten Abfragen sind auf Grund der Anforderungen bekannt und bereits beschrieben. Das Endergebnis ist eine normalisierte Tabellenstruktur, die keine Fehler und Redundanzen enthält.

Implementierung

Jetzt erfolgt die konkrete Umsetzung auf dem Datenbank System. Dabei wird auf ein gutes Laufzeitverhalten und auf Effizienz geachtet. Wichtig ist hier, dass nach den Regeln der KVP (Kontinuierlicher Verbesserung Prozess) die Datenbank optimiert wird. Es werden die Sichten, Relationen, Indizes und die Berechtigungen eingerichtet.

Test / Qualitätssicherung

Bei der Qualitätssicherung wird geprüft, ob die Anforderungen erfüllt sind. Zudem werden die während der Anforderungsanalyse festgestellten Kriterien geprüft. Optimal ist hier zusätzliches automatisiertes Testsystem zu nutzen, dass den ganzen Lebenszyklus des DBS genutzt wird. Das vermeidet wiederkehrende Fehler und optimiert die Qualitätssicherung.

Übergabe und Nutzung

Nach dem Abschluss der Qualitätssicherung findet die Übergabe des Systems statt. Dabei ist zu beachten, dass dies wie alle vorher beschriebenen Prozesse in schriftlicher Form dokumentiert sein soll. Das Übergabedokument wird nach erfolgreicher Abnahme durch den Auftraggeber unterzeichnet und damit ist der Leiter des Projekts entlastet.

 

Pseudocode in Entwicklungen und Prüfungen einsetzen

Prüfungen von Fachinformatikern können Aufgaben enthalten, die mit Pseudocode geschrieben werden sollen. Verschaffen wir uns dazu einen Überblick was Pseudocode ist.

Was ist Pseudocode?

Pseudocode ist eine Schritt für Schritt Anleitung zum Entwickeln einer Abbildungsvorschrift mit allgemeiner Logik. Meist wird damit ein auf Anforderungen basierender Algorithmus beschrieben. Pseudocode kennt keinen Standard. Die Nutzer orientieren sich flexibel an den Strukturen von Programmiersprachen.

Grundregeln bei der Erstellung von Pseudocode

  • Beschreibe wie die Programmierlogik aussieht
  • Verwende das KISS Prinzip (Keep it Simple and Smart)
  • Schreibe eine Anweisung in eine Programmierzeile
  • Strukturiere den Pseudocode durch richtige Einrückung
  • Nutze die in der Anforderung beschriebenen Algorithmen
  • Halte die Vorgaben in der Anforderung genau ein

Grundformen bei Pseudocode

Variablen und Konstanten

In Variablen kann ein Wert gespeichert werden. Dieser Wert kann jederzeit verändert werden.

PROGRAMMSTART
Kommentar
Es gibt verschiedene Möglichkeiten eine Variable oder Konstante zu definieren
Kommentar Variante A:
Setze VARIABLE Laenge mit dem Wert 20
Kommentar Variante B:
Breite := 10
Flaeche := 0
Kommentar Berechnung
Flaeche := Laenge * Breite
AUSGABE Flaeche
PROGRAMMENDE

Manchmal wird keine Wertveränderung gebraucht, wie zum Beispiel bei der Kreiszahl Pi. Dann kommt die Konstante zum Einsatz. Dort wird ein fester, nicht veränderbarer Wert festgelegt.

PROGRAMMSTART
Kommentar
Beispiel einer Konstante
KONSTANTE Pi := 3.141592685
EINGABE VARIABLE Durchmesser
Umfang := Durchmesser * Pi
AUSGABE Umfang
PROGRAMMENDE

Die Sequenz

Die Sequenz ist eine lineare Abfolge an Befehlsschritten. Dazu ein Beispiel:

PROGRAMMSTART
EINGABE
 Seitenlänge
Seitenumfang := 4 *Seitenlänge
AUSGABE Seitenumfang
PROGRAMMENDE

Das Array

Ein Array ist eine spezielle Variable, die wie ein Container mehrere Werte beinhalten kann. Dabei können in einem Array beliebige Datentypen verwendet werden. Die Werte des Arrays können beliebig geändert werden.

PROGRAMMSTART
Setze ARRAY Messwerte[] := {2, 3, 12, 4}

Kommentar Der erste Eintrag im Array ist die Position 0!
Quadratflaeche := Messwerte[0] * Messwerte[0]
Kommentar Der Wert von Messwerte[0] ist 2
AUSGABE Quadratflaeche
PROGRAMMENDE

Die IF- oder WENN-Abfrage

Mit der IF Abfrage können Entscheidungen getroffen werden, wie das einfache Beispiel zeigt.

PROGRAMMSTART
WENN
GefahreneGeschwindigkeit >= 100 DANN

    AUSGABE im Display „Geschwindigkeit zu hoch“
ENDE WENN
SONST
    AUSGABE im Display „Geschwindigkeit in Ordnung“
ENDE SONST
PROGRAMMENDE

Die SWITCH-CASE Auswahl

Wenn eine Auswahl von mehreren Möglichkeiten angeboten werden soll, dann lässt sich dies mit mit der WENN Abfrage lösen. Meist wird aber der Code kompliziert und daher ist es einfacher, eine SELECT CASE Auswahl zu schreiben.

PROGRAMMSTART
Bewertung := 0
EINGABE „Geben Sie die Note zwischen 1 und 6 ein“ Bewertung
PRÜFE FALL Bewertung = 1
    AUSGABE „Sehr gut“
VERLASSE den FALL
PRÜFE FALL Bewertung = 2
    AUSGABE „Gut“:
VERLASSE den FALL
PRÜFE FALL Bewertung = 3
    AUSGABE „Zufriedenstellend“
VERLASSE den FALL
PRÜFE FALL Bewertung = 4
    AUSGABE „Ausreichend“
VERLASSE den FALL
PRÜFE FALL Bewertung = 5
    AUSGABE „Mangelhaft“
VERLASSE den FALL
PRÜFE FALL Bewertung = 6
    AUSGABE „Ungenügend“
VERLASSE den FALL
DEFAULT
    AUSGABE „Die Bewertung wird wiederholt“
PROGRAMMENDE

Die WHILE oder SOLANGE Schleife

Mit der WHILE Schleife kann ein Code wiederholt ausgeführt werden, bis die Bedingung nicht mehr erfüllt ist. Wenn die Bedingung nicht erfüllt ist, dann kann auch kein Durchlauf der Schleife erfolgen.

PROGRAMMSTART
ASCIICode
 := 65
SOLANGE (ASCIICode <= 126)
Ausgabe ASCIICode
    ASCIICode := ASCIICode + 1
ENDE SOLANGE
PROGRAMMENDE

Die DO-WHILE oder WIEDERHOLE-SOLANGE Schleife

Die DO-WHILE oder WIEDERHOLE-SOLANGE Schleife ist eine fußgesteuerte Schleife. Das heißt, das die Schleife mindestens einmal durchlaufen wird.

PROGRAMMSTART
Zaehler := 1

WIEDERHOLE
    AUSGABE „Zahl “ Zaehler
    Zaehler := Zaehler + 1
SOLANGE (Zaehler < 10)
PROGRAMMENDE

Fazit:

Mit dem Pseudocode kann ein Algorithmus beschrieben werden, ohne dass eine Programmiersprache ausgewählt wurde. Daher ist dies eine gängige Methode, um den Algorithmus in kodierter Form  lesbar darzustellen.

Die Six Sigma Methodik im Überblick

Die Six Sigma Methodik wurde 1979 von Motorola entwickelt und dient der Qualitätsverbesserung bei vorhandenen Produkten oder Dienstleistungen. Dabei werden die Methoden DMAIC, DFACE und DMADV eingesetzt. Dazu wird das statistische Qualitätsmanagement eingesetzt. Dazu haben Genichi Taguchi und William Edwards Deming große Beiträge geleistet.

So hat  der japanische Ingenieur Gen’ichi Taguchi die nach Ihm benannte Taguchi-Methode entwickelt, bei der Prozesse, Produkte und Systeme so robust wie möglich gestaltet werden. Es ist heute eine der Methoden, die bei Six Sigma angewandt werden.

Zur gleichen Zeit entwickelte der amerikanische Ingenieur William Edwards Deming die prozessorientierte Sicht und den Einsatz von Statistik im Qualitätsmanagement. Seine Erkenntnisse sind auch heute in Qualitätsnormen und in der Lehre im Einsatz. So nutzen viele Menschen die PDCA Methode.

DMAIC

DMAIC ist eine sich wiederholende Methode, die aus fünf Schritten besteht. Die fünf Schritte sind Define, Measure, Analyze, Improve und Control. Mit DMAIC werden Probleme in bestehenden Prozessen und Produkten identifiziert, analysiert und gelöst.

DFACE

Die DFACE Methode ist eine Erweiterung von DMAIC. Sie betrachtet zusätzlich die zum üblichen Vorgehen bestehenden Chancen und  Risiken des Prozesses (Failure Mode and Effects Analysis, FMEA), sowie identifiziert DFACE die Anforderungen der Stakeholder (Customer Expectations).

DMADV

DMADV ist eine weitere Methode, die aus fünf Schritten besteht. Hier gibt es die Schritte Define, Measure, Analyze, Design, Verify, um einen neuen Prozess mit großer Leistung und Zuverlässigkeit zu entwerfen und umzusetzen. Im Gegensatz zu DMAIC liegt der Fokus auf der Prozessneugestaltung.

Systematisierung betrieblicher Kennzahlen

Kennzahlen sind in Unternehmen wichtige Werkzeuge, um richtige Entscheidungen zu treffen. Vor dem Einsatz ist festzustellen, welche Art von Entscheidung getroffen werden muss. Dabei wird zwischen Basisentscheidungen und laufende Entscheidungen unterschieden.

Basisentscheidungen

Basisentscheidungen betreffen langfristige Zeiträume mit mehr als 10 Jahren Wirkung. Es sind strategische Entscheidungen, die die Unternehmensleitung trifft.

Laufende Entscheidungen

Bei einfacheren Vorgängen des Unternehmens werden laufende Entscheidungen getroffen. Diese Entscheidungen werden durch Führungskräfte getroffen, die von der Unternehmensleitung dafür autorisiert wurden. Oft wirken diese Entscheidungen 5 bis 10 Jahre und daher wird diese Art auch taktische Entscheidung genannt.

Kennzahlen und Formeln werden in beiden Bereichen genutzt, um Hilfe bei den Entscheidungen zu erhalten.

Absolute Zahlen

Das sind meist Einzelzahlen wie zum Beispiel der Umsatz eines Unternehmens. Dazu gehören auch einfache Mittelwerte, wie der durchschnittliche Lagerbestand.

Relative Zahlen

Die relativen zahlen gliedern sich in drei Gruppen.

Indexzahlen

Mit Indexzahlen werden Veränderungen innerhalb eines bestimmten Zeitraums dargestellt. Die Zeiträume und auch Zeitpunkte können unterschiedlich sein. Indizes werden häufig bei Statistiken verwendet. Ein Beispiel für Indexzahlen sind die Lebenshaltungskosten von Statista.

Umsatzindex = (Umsatz im Jahr 2022 / Umsatz im Jahr 2021) * 100

Beziehungszahlen

Das Verhältnis von zwei Zahlen nennt man Beziehungs- oder Verhältniszahlen. Dabei sind die verwendeten Zahlen aus verschiedenen Bereichen. Ein Beispiel sind Personalzahlen, die mit Umsatzzahlen in Beziehung stehen.

Umsatz pro Person = Umsatz des Unternehmens / Zahl der Mitarbeiter

Gliederungszahlen

Wesensgleiche Zahlen, die in Beziehung gesetzt werden, nennt man Gliederungszahlen. Teilgrößen werden mit einer Gesamtgröße in Relation gesetzt. Ein Beispiel dazu ist der Anteil der Betriebskosten der Produktion an den Gesamtkosten des Unternehmens.

Anteil der Kosten = (Betriebskosten Produktion / Betriebskosten Unternehmen) * 100

Weitere betriebswirtschaftliche Kennzahlen

Fachinformatiker und Kaufleute benutzen weitere Kennzahlen. Dazu fasse ich hier einige zusammen.

Produktivität = Ausbringungsmenge / Menge im Einsatz der Produktionsfaktoren

Gesamtkapitalrentabilität = (Kapitalzinsen + Gewinn) / (Eigenkapitel + Fremdkapital) * 100

Eigenkapitalrentabilität = Gewinn / Eigenkapital * 100

Umsatzrentabilität = Gewinn / Umsatzerlöse * 100

EDV-Intensität = Exportumsatzerlöse / Umsatzerlöse * 100

 

 

Kodierung mit Unicode – UTF

Kodierung ist uraltes Instrument der Natur, dass bei Kommunikation eingesetzt wird.  Somit wird Kommunikation mit Kodierung universell eingesetzt, wie zum Beispiel in der Pflanzenwelt mit Auxinen und in der IT sind das Kodierungen wie UTF. Denn Kommunikation funktioniert immer auf der gleichen Basis und braucht Standards.

Basis von Kommunikation

  • Es gibt einen Sender, der kommunizieren will
  • Es gibt einen oder mehrere Empfänger
  • Es gibt Daten, die Sender und Empfänger in einen Kontext setzen und damit werden Informationen übermittelt
  • Es gibt Regeln zum Austausch, die auch als Protokolle bezeichnet werden
  • Es gibt einen Zweck, warum der Austausch mittels Kommunikation notwendig ist

In der IT hat sich die Kodierung im Laufe der Zeit weiter entwickelt. So wird heute sehr häufig Unicode eingesetzt, das auch Unicode Transformation Format genannt wird.

Mit Unicode ist es möglich, die gängigen Zeichen aller Schriften zu nutzen. So können damit 232 Zeichen kodiert werden, im Gegensatz zum erweiterten ASCII Code, der 128 Zeichen kodieren kann. UTF ist also ein wichtiges Mittel für den globalen Austausch von Daten und Informationen über alle Völker und Kulturen hinweg.

UTF kodiert ein Zeichen immer mit 32 Bit. Damit es mit einer weiteren, häufig genutzten Kodierung kompatibel ist, sind die ersten 128 Zeichen wie bei ASCII kodiert.

Ein Hemmnis von Unicode ist der hohe Verbrauch von 32 Bit pro Zeichen. So werden gleiche Texte gegenüber ASCII Code um das 4-fache umfangreicher. Um die Datenmenge zu reduzieren gibt es verschiedene Arten der UTF Kodierung.

Kodierung mit UTF-32

Hier jedes Zeichen mit 32 Bit kodiert. Es ist die einfachste und kompatibelste Kodierung mit Unicode. Wird zuerst das höchstwertige Byte übertragen, dann wird diese Kodierung Big Endian (UTF-32BE) genannt. Wenn das niedrigstwertige Byte zuerst übertragen wird, dann wird dies als Little Endian (UTF-32LE) bezeichnet.

Kodierung mit UTF-16

Hier werden zur Kodierung eines Zeichens entweder ein 16 Bit- oder zwei 16 Bit Blocks verwendet. Diese Kodierung wird gerne bei Sprachen mit nicht lateinischen Zeichen eingesetzt. Ähnlich wie bei UTF-32 gibt es hier auch UTF-16BE und UTF-16LE.

Kodierung mit UTF-8

Hier werden die Zeichen mit einer variablen Länge von 1 bis 4 Byte kodiert. Da in vielen Fällen die ersten 128 Zeichen des dazu kompatiblen Standard ASCII Codes (7 Bit) verwendet werden, ist dieser Kodierungstyp der Effizienteste. Das achte Bit wird zum Einleiten der Verlängerung des Zeichens auf bis zu 32 Bit genutzt.

Byte Order Mark oder BOM

Das ist eine Signatur, die zu Beginn der Nutzung übertragen wird. Sie dient der leichteren Identifizierung der Kodierung bei verschiedenen Systemen. Wenn aber vorher schon eindeutig geklärt ist, wie die Daten übermittelt werden, kann die BOM weg gelassen werden. Dies geschieht zum Beispiel bei HTML Seiten durch die Angabe des <meta charset=“utf-8″ />.

Es gibt noch weitere UTF Kodierungen, die aber in der Praxis nur wenig eingesetzt werden.

Siehe auch:

Codepage oder Zeichensatz Tabelle in der IT

Ist Kodierung gleich Codierung?

 

SAN – Storage Area Network einfach erklärt

Ein SAN, das auch Storage Area Network genannt wird, ist ein Netzwerk von Datenspeichern mit großen gespeicherten Datenmengen.

SAN im Netz Beispiel

Das SAN wird parallel zum Netzwerk betrieben. Die Server können auf das Speichernetzwerk des SAN zugreifen und die Daten an die berechtigten Nutzer weiterreichen. Dadurch wird die Auslastung des Netzwerks reduziert und die Datenträger können an unterschiedlichen Plätzen im Netzwerk befinden. Außerdem sind die Server für die Verwaltung des SAN notwendig.

Um hohe Übertragungsraten im SAN Speichernetz zu realisieren, werden dort oft Glasfaser- und Hochleistungs-LAN Netze eingesetzt. So können im SAN bis zu 10 GBit Netze genutzt werden. Die Protokolle FCIP (Firbe Channel over IP) und FCoE (Fibre Channel over Ethernet sind hoch effizient und bieten hohe Übertragungsgeschwindigkeiten bei gleichzeitig großen Reichweiten (bis zu 100 km).

 

NAS – Network Attached Storage einfach erklärt

Das NAS (Network Attached Storage) ist eine Speicherlösung, die bei kleinen bis mittleren Unternehmen und bei Privatpersonen immer beliebter wird. Es ist eine multifunktionale Lösung zum Speichern von Daten. Es gibt NAS Systeme, die einen Fileserver, Streaming Server, FTP Server, Webserver und weitere multimediale Dienste über ein Netzwerk zur Verfügung stellen können.

Schematischer Aufbau NAS Netzwerk

Ein NAS hat einen eigenen Prozessor, RAM und ein Betriebssystem. Es ist also ähnlich wie ein Server. Aber der Funktionsumfang ist beim NAS eingeschränkter, weil zum Beispiel Backups nicht unterstützt werden. Manche Network Attached Storage Systeme haben mehr als ein Laufwerk und können RAID 0 oder 1 zur Verfügung stellen.

So können NAS Systeme als Private- oder Home Cloud eingesetzt werden. Mit Hilfe der Administration können Gruppen und einzelne Accounts mit unterschiedlichen Zugriffsrechten eingerichtet werden.

Meist werden die Protokolle FTP, SMB, AFP, NFS und CIFS unterstützt. Universal Plug and Play (UPnP) und Digital Living Network Alliance (DLNA) werden von vielen NAS Systemen unterstützt. Alle gängigen Betriebssysteme bieten somit Unterstützung für NAS Geräte.

Topologien bei IT Netzwerken

Topologie ist die Lehre von Objekten im Raum. Der Begriff wurde bei den mathematisch gebildeten Griechen geprägt und ursprünglich in der Geometrie verwendet. Heute wird der Begriff „Topologie“ in der IT und in der Geographie verwendet. Bei der Beschreibung von IT Netzwerken wird die physische Topologie verwendet.

Die physische Topologie zeigt ähnlich einer Landkarte wie die Komponenten platziert sind und wie sie miteinander verbunden sind. Heute wird sehr häufig die Stern-Topologie in Verbindung mit Switches eingesetzt. Die Geräte werden in Netzwerken Host genannt.

Stern Topologie

In der Mitte befindet sich meist ein Switch. Daran sind die weiteren Hosts angeschlossen.

blank

Vorteile der Stern Topologie

  • An nicht genutzte Ports des Switch können jederzeit weitere Hosts angesteckt werden
  • Innerhalb der sternförmigen Verbindung gibt es keine Datenkollisionen, weil jedes Host exklusiv eine Verbindung nutzt
  • Jeder am Switch angeschlossene Host kann die volle Bandbreite nutzen
  • Switche haben gleichzeitig eine Repeater Funktion, sie frischen das Signal auf und verstärken es

Nachteile der Stern Topologie

  • Von einem Ausfall des Switches sind alle angeschlossenen Hosts betroffen
  • Die Verkabelung ist aufwendiger und teurer

Bus Topologie

Bei der Bus-Topologie wird ein zentrales Kabel für den Transport der Datenpakete genutzt. Dabei sind alle Hosts an dieses zentrale Kabel angeschlossen und teilen sich dieses Medium (shared media).

blank

Vorteile der Bus Topologie

  • Geringer Leitungsverbrauch beim Aufbau

Nachteile der Bus Topologie

  • Es findet keine Aufbereitung transportierter Signale statt. Daher ist die Länge des Bus begrenzt, kann durch den Einsatz von Repeatern erweitert werden
  • An den Enden des Busses werden Abschlussswiderstände benötigt, um Reflektieren des Signals zu vermeiden
  • Es kann zu Kollisionen der Datenpakete kommen
  • Es ist ein Diffusionsnetz, weil sich die Signale in beide Richtungen ausbreiten

Ring Topologie

Bei der Ring-Topologie bildet das transportierende Kabel einen Ring. Alle Hosts im Ring verarbeiten die Daten. Zudem werden durch jedes angeschlossene Gerät die Signale aufbereitet und verstärkt. So können auch sehr weitläufige Ringe gebildet werden. Der Host mit dem Token darf senden. Alle weiteren Hosts nehmen die Signale auf. Der Token mit den Senderechten wird nach einem Zeitintervall an den nächsten Host im Ring weitergegeben.

blank

Vorteile der Ring Topologie

  • Im Ring kommt es zu keinerlei Datenkollisionen
  • Die Signale werden aufbereitet und verstärkt. So sind sehr große Ringe möglich
  • Auch bei hoher Auslastung des Rings erfolgt eine sichere Übertragung der Daten

Nachteile der Ring Topologie

  • Die Entwicklung wurde vor längerer Zeit aufgegeben
  • Die maximale Übertragungsrate ist wesentlich geringer, als bei heutigen Ethernet Netzen

Baum Topologie

Die Baum-Topologie funktioniert ähnlich wie die Struktur in einem Dateisystem. Von der Wurzel ausgehen verteilen sich die Geräte auf verschiedenen Ebenen. So ist die Baumstruktur einen Erweiterung eines Stern-Stern Netzes über mehrere Ebenen.

blank

Vorteile der Baum Topologie

  • Die Baum Topologie findet sich häufig in firmeninternen Netzen (Intranet)

Nachteile der Baum Topologie

  • Die Wartung kann aufwendiger sein, wenn die Baum Topologie in verschiedene Subnetze aufgeteilt ist

Linien Topologie

Die Linien-Topologie sieht ähnlich aus wie die Bus Topologie. Allerdings werden die Datenpakete durch die einzelnen Teilnehmer der Linie geleitet und am Ende ist immer ein Host. Oft wird diese Topologie auf Englisch Daisy-Chain-Configuration genannt.

blank

Vorteile der Linien Topologie

  • Diese Topologie wird in der Sicherheitstechnik verwendet, weil die Nachbarn genau bekannt sind

Nachteile der Linien Topologie

  • Wenn ein Host ausfällt, dann ist das Netz an dieser Stelle unterbrochen und muss überbrückt werden

Maschen Topologie (Teilvermascht)

Bei der Maschen-Topologie gibt es 2 Varianten. Bei der teilvermaschten Variante sind die Hosts jeweils mit mehreren anderen Hosts verbunden.

blank

Vorteile der teilvermaschten Topologie

  • Die Mesh Topologie entspricht dem Internet
  • Es ist eine unendlich Ausdehnung von Netzen möglich
  • Mit jeder redudanten Verbindung erhöht sich die Ausfallsicherheit
  • Sichere, dezentrale Steuerung und Rechtevergabe

Nachteile der teilvermaschten Topologie

  • Höhere Kosten bei der Vernetzung durch den redundanten Anteil
  • Aufwendigere Administration

Maschen Topologie (Vollvermascht)

Bei der vollvermaschten Variante sind alle Hosts jeweils mit allen anderen Hosts verbunden.

blank

Vorteile der vollvermaschten Topologie

  • Es ist eine unendlich Ausdehnung von Netzen möglich
  • Höchste Ausfallsicherheit
  • Sichere, dezentrale Steuerung und Rechtevergabe

Nachteile der vollvermaschten Topologie

  • Höchste Kosten bei der Vernetzung durch den maximalen, redundanten Anteil
  • Aufwendige Administration

Fabric Topologie

Die Fabric-Topologie hat sich aus der Notwendigkeit entwickelt, dass auch immer mehr Server verteilte Systeme sind und daher eine intensive Kommunikation notwendig ist, um die angeforderten Dienstleistungen zu erbringen. Dazu leitet sich die Anforderungen ab, dass die Netzarchitekturen der Zukunft leistungsfähig, sowie flexibel gestaltet sein müssen und sich dynamisch anpassen sollen. Daher werden für die anpassbaren Verbindungen unter anderem FibreChannel Verbindungen eingesetzt, die mit Switchen und weiteren Netzgeräten kombiniert werden.

Vorteile der Fabric Topologie

  • Hohe Ausfallsicherheit
  • Flexibles Management, die KI automatisiert werden kann
  • anpassbare Geschwindigkeit der Netzverbindungen

Nachteile der Fabric Topologie

  • Höhere Kosten für die Vernetzung

 

Codepage oder Zeichensatz Tabelle in der IT

Bei der elektronischen Datenverarbeitung werden sehr häufig Texte verarbeitet. Die einzelnen Zeichen werden dazu kodiert. Bereits die Inkas nutzen vor 4600 Jahren Kodierung für Ihre Dokumente, die Knotenschnüre (Khipu).

Knotenschrift Khipu
Foto von Steven Damron; https://www.flickr.com/photos/sadsnaps/8351578861/

Das bekannteste westliche Verfahren ist die 1845 von Baudot erfundene Kodierung für Telegraphie. Daraus wurde die  Kodierung bei Fernschreibern entwickelt und daraus leitet sich die Kodierung des  Standard ASCII Code ab. Dieser wurde in seiner heutigen Form mit einer 7-Bit Kodierung unter der ISO/IEC Norm 646:1991 standardisiert. Es konnten jetzt 128 Zeichen kodiert werden.

Für die heutige Zeit der Globalisierung in der multipolaren Ordnung ist dies aber nicht ausreichend. Es gibt viele Staaten mit unterschiedlichen Kulturen und Sprachen. So wurde der ASCII Code um ein Bit auf 8 Bit erweitert. Dieser Erweiterte ASCII Code verbesserte die Qualität der Kommunikation.  Aber der Betrieb vielsprachiger Webseiten zeigte weitere Hemmnisse auf. Die Einführung von Zeichensatz Tabellen, die auch Codepages genannt werden, sollte die Multilingualität verbessern. Trotz dieser Erweiterung gab es weiterhin keine fehlerfreie Nutzung von Webseiten in Browsern und weiteren Programmen.

Erst die Einführung von Unicode brachte die gewünschte fehlerfreie Verbesserung.

 

Backup Differentielle Datensicherung

Die differentielle Datensicherung ist ein häufig genutzter Datensicherungtyp. Er unterscheidet sich von der inkrementellen Datensicherung. Es werden bei der differentiellen Datensicherung, immer alle neuen oder geänderten Daten seit der letzten Vollsicherung gespeichert.

Bei einer notwendigen Rücksicherung, zum Beispiel bei einem Hardware Schaden einer Festplatte, werden nur zwei Schritte notwendig.

  1. Rücksicherung der Vollsicherung
  2. Danach die Rücksicherung der letzten differentiellen Sicherung

Wie bei allen Sicherungsarten sollte auch hier nach der Sicherung der Daten eine Prüfung durch einen Vergleich (Verify) durchgeführt werden. Nur so können Fehler bei den gesicherten Daten vermieden werden.

 

Backup Inkrementelle Sicherung

Die inkrementelle Datensicherung ist wie das differentielle Backup eine optimale Ergänzung zur Vollsicherung. Denn durch den Einsatz der inkrementellen Sicherung kann beim Backup am meisten Speicherplatz und Sicherungszeit gespart werden.

Bei einem Sicherungskonzept wird im Regelfall mit einer Vollsicherung begonnen. Alle Daten und das Betriebssystem werden dabei gespeichert. Das kostet mindestens soviel Speicherplatz, wie auf dem Datenträger durch Daten und OS gebraucht werden, falls keine Datenkomprimierung eingesetzt wird.

Was wird beim inkrementellen Backup gesichert?

Bei der inkrementellen Datensicherung werden alle neuen oder geänderten Dateien seit der letzten Sicherung gespeichert. Dabei spielt es keine Rolle, ob vorher eine Vollsicherung, inkrementelle oder differentielle Datensicherung durchgeführt worden ist.

Wichtig ist bei allen Sicherungsarten ein Sicherungskonzept, das eingehalten werden muss.

Zudem empfiehlt es sich bei allen Sicherungsarten, die erstellte Sicherungsdatei sofort mit einem „Verify“ prüfen. Denn ohne Prüfung kann es passieren, dass Fehler während der Sicherung nicht erkannt werden. Das setzt ebenso voraus, dass Sicherungsmedien wie zum Beispiel Sicherungsbänder von Bandsicherungslaufwerken regelmäßig ausgetauscht werden.

 

Backup Vollsicherung

Ein Backup mit einer Vollsicherung ist ein wichtiges Mittel, um Daten nach einem Schadensfall wieder herstellen zu können.

Bei der Vollsicherung werden werden alle Daten inklusive dem Betriebssystem gesichert. Bei der Vollsicherung ist zeitintensiv und beträgt mindestens die Datenmenge der zu sichernden Dateien. Die Daten können allerdings komprimiert werden, um Platz zu sparen. Dies erfordert zusätzliche Rechenleistung und verlängert wiederum die Zeitdauer der Datensicherung.

Da nach dem Sichern der Daten bei der Vollsicherung geprüft werden sollte, ob die Daten auf dem Datenträger richtig geschrieben sind, verdoppelt sich beim Einschalten dieser notwendigen Funktion die Zeitdauer des Backups.

Eine optimale Ergänzung im Sicherungskonzept sind die inkrementelle Datensicherung oder die differentielle Datensicherung.

 

IT Anforderungsanalyse beim Kundengespräch

Die Kommunikation mit Kunden ist ein wichtiges Thema. Denn der Mensch steht immer im Mittelpunkt allen Handelns. Das wird sich auch beim Einsatz von KI nicht verändern. Um Kundengespräche zu führen und die nachfolgenden Anforderungsanalysen erstellen zu können, gibt es einige Tipps.

Ein Kundengespräch oder Interview wird immer vorbereitet, damit es erfolgreich durchgeführt werden kann. Dazu sollte man den Kunden in der ersten Phase kennenlernen, um seine Interessen, Wünsche und Bedürfnisse zu kennen.

Unterstützend kann für das Gespräch ein vorbereitetes Formular eingesetzt werden. Das hat den Vorteil, dass im Laufe vieler Gespräche mit diversen Kunden weitere, standardisierte Auswertungen möglich sind.

Beispiel einer Vorlage für die Anforderungsanalyse

Vorlage Switch
Konfigurierbar Ο Ja                                              Ο Nein
Weboberfläche Ο Ja                                              Ο Nein
Anzahl Ports Ο 4      Ο 5     Ο 8      Ο 16      Ο 24      Ο 32      Ο 48
 …. ….

 

Das Anforderungsprotokoll ist ein Teil der Dokumentation des Kunden und ergänzt das Lastenheft. Es vervollständigt fehlende Daten, um das Pflichtenheft erstellen zu können.