Datenschutz und Datensicherheit spielen immer eine wichtige Rolle und das ist bereits seit mehr als 2500 Jahren bekannt. Denn Meister Sun, auch unter den Namen Sunzi, Sun Tsu oder 孫子 / 孙子bekannt, schrieb in seinen Schriften:
Der General ist ein weiser Verteidiger, wenn sein Gegner nicht weiß, was er angreifen soll.
Die weltweit führenden Schulen des Management unterrichten diese wichtigen Schriften noch Heute. Daraus leiten sich auch die 10 Gebote der Netzsicherheit ab.
10 Gebote der Netzsicherheit
Lege stets Verantwortlichkeiten fest
Finde einvernehmliche Regeln für alle Akteure
Stelle ausreichend Ressourcen bereit
Beziehe die Nutzer stets mit ein
Definiere wichtige Prozesse und kontrolliere die Ausführung
Sichere regelmäßig die Daten
Setze Firewall-, Antiviren und weitere Schutz-Software ein
Nutze Verschlüsselung für wichtige E-Mails und wichtige Internet Verbindungen
Gib nur notwendige Daten preis
Bedenke: Der Mensch hinter dem Computer ist das größte Sicherheitsrisiko
Ignoranz und Unwissenheit erzeugen auch solche Worte:
Das Internet ist für uns alle Neuland
Seien Sie wachsam und sorgen Sie für eine zeitgemäße Entwicklung. Denn Freiheit sollte niemals gegen für vorübergehende Sicherheit aufgegeben werden, wie bereits Benjamin Franklin sprach.
Wer die Freiheit aufgibt, um Sicherheit zu gewinnen, der wird am Ende beide verlieren
Im Januar 2021 nahm Apples CEO Tim Cook an der Konferenz für Datenschutz und Datensicherheit teil. Er sprach darüber, wie Apple die Daten seiner Kunden schützt und ungeht. Hören Sie diesen interessanten Beitrag. Hier können sich viele Unternehmen ein Beispiel nehmen.
Denn der sichere Umgang mit Kunden und dessen Daten ist ein beständig wichtiger Punkt. Der Kunde soll über die Nutzung selber entscheiden können und die Geräte und Software sollen das Bestreben des Kunden zur Datenminimierung unterstützen.
UML wird zur Modellierung und zur Darstellung der Struktur von Softwaresystemen eingesetzt. Die Unified Modeling Language nutzt dazu verschiedene Diagrammarten und wird zur
Beschreibung aller Arten von objektorientierter Software und der dazugehörenden Dokumentation eingesetzt;
zeigt die Prozesse, zeitlichen Kommunikationsverläufe, Objekte, Klassen zum Erstellen eines Modells auf;
dient zur Erkennung von Risiken und Fehlern;
sowie der Zuweisung von Verantwortlichkeiten und Ressourcen.
Inzwischen gibt es Software Tools, mit denen nicht nur UML dokumentiert werden kann. Es wird auch der passende Quellcode für verschiedene Programmiersprachen generiert.
Das Klassen Diagramm
Das Klassendiagramm ist ein Bauplan verwandter Objekte mit ähnlichen Eigenschaften und Methoden. Die Kommunikation dieser Objekte erfolgt über Schnittstellen. Dafür sind Schnittstellenmethoden notwendig.
Beispiel eines Klassen Diagramms
Name der Klasse
Attribut oder Eigenschaft der Klasse mit Datentyp
Eine Methode der Klasse
Das Objekt Diagramm
Das Objektdiagramm zeigt eine Instanz der Klasse zu einer bestimmten Zeit. Das heißt, ein aus dem Klassenbauplan erzeugtes Objekt wird zu einem bestimmten Zeitpunkt dargestellt.
Beispiel eines Objekt Diagramms
Klasse : Objekt => beschreibt das Objekt
Zeigt an einem Beispiel den Wert und Datentyp des Attributs
Eine weitere wichtige Rolle spielen die Beziehungen zwischen den Objekten, Klassen, der Sichtbarkeit und der Kardinalität. Diese wird im Artikel UML Klassendiagramm Symbole beschrieben.
Die Entwicklung von Prozessoren und Betriebssystemen ist einer fortlaufenden Änderung unterworfen. Die x86 Prozessoren von Intel stoßen auf immer neue Hemmnisse. Die Technologie bei der Produktion vieler Prozessoren von Intel liegt bei 14 nm. AMD stellt seine Ryzen x86 Prozessoren im 7 nm Prozess her. ARM RISC Prozessoren werden meist mit 5 nm Technologie gefertigt und Apple wird im nächsten Jahr seine M1 Prozessoren von 5 nm auf 4 nm umstellen. Die RISC Prozessoren sind leistungsfähig, effizienter und haben einen geringeren Energieverbrauch als die CISC Prozessoren von Intel.
In diesem Kontext tauchen immer wieder Information auf, dass AMD seine Ryzen Serie mit den x86 Prozessoren um ARM Prozessoren erweitert. Die K12 ARM CPU aus dem Jahr 2014 wurde von AMD weiterentwickelt und nun soll der erste SoC „AMD Ryzen C7“ heißen. Es würde der erste Prozessor der AMD Ryzen Mobile Platform sein.
Der SoC soll zwei der neu spezifizierten Cortex-X1 Kernen mit 3,0 GHz und zwei Cortex A78 mit 2,6 GHz, sowie vier Cortex A55 Kerne mit 2,0 GHz enthalten. Eine Besonderheit soll die von AMD entwickelte GPU darstellen. Sie unterstützt Ray Racing, Sharing, 144 Hz Bildwiederhol Frequenz und HDR10+. Die Geschwindigkeit liegt um ca. 45% höher als bei der von ARM momentan käuflichen GPU Ardeno 650 mit Snapdragon 865. Damit bietet AMD Produzenten von Notebooks und weiteren mobilen Geräten einen leistungsfähigen Einstieg in die neuentwickelte Prozessor Technologie.
Sollte diese Prozessorreihe von den Geräteherstellern angenommen werden, dann wird sich daraus eine Erweiterung des Marktes ergeben. Denn Tests haben ergeben, dass Windows on ARM schneller läuft, als auf x86 Prozessoren.
Wird Intel nachziehen können, wo NVIDIA die Prozessorschmiede ARM gekauft hat?
Fazit:
Diese RISC Prozessoren mit 5 nm Technologie sind für mobile Geräte wie Notebooks, Tablets vorgesehen. Der SoC soll in etwa der gleichen Leistungsklasse wie der Apples M1 Prozessor liegen. Ein Grund mehr für Kunden auf stromsparende, kostengünstigere und leistungsfähigere Geräte umzusteigen.
Entwickler brauchen regelmäßig einen Texteditor mit umfangreichen Funktionen. PSPad ist ein hochwertiger Editor mit umfangreichen Möglichkeiten. So kann der Editor unter anderem:
Quellcode Entwicklung mit Syntax Highlighter für viele Programmiersprachen
Umfangreiche Funktionen für die Textverarbeitung
Integrierter Dateivergleich
Integration von HTML-Tidy
Integrierter Hexadezimal Editor
Besonders interessant die Möglichkeit weitere Funktion über viele zusätzliche Plug-ins einzubinden. Dies ermöglicht eine individuelle Funktionserweiterung des Editors.
Wer den Editor ausprobieren möchte, kann die Installationsdatei des kostenlosen Editors und https://www.pspad.com finden.
Fazit:
PSPad ist ein hochwertiger Text Editor, mit dem verschiedene Programmier- und Datenbearbeitungsaufgaben in Windows gelöst werden können. Der eingebaute Hexadezimal Editor lässt sich für Analysen auf binärer Ebene verwenden. eine klare Empfehlung für PSPad.
Um die Datenübertragung in Netzen leichter beschreiben zu können, wurde in den 1960er Jahren das DoD Schichtenmodell entwickelt.
Schicht
Name
4
Process
3
Host-to-Host
2
Internet
1
Network Access
Dieses Modell besteht aus 4 Schichten und bildet eine Grundlage des heute verwendeten ISO-OSI Schichtenmodells. Die Organisation ISO hat den Open Systems Interconnect im Jahr 1978 entworfen.
Das heutige OSI Modell nutzt 7 Schichten, bei der die Kommunikation zwischen Sender und Empfänger mit Hilfe von technischen Einrichtungen beschrieben wird.
Schicht
Deutsche Bezeichnung
Englische Bezeichnung
Protokolle
Geräte oder Hardware
7
Anwendungs-schicht
Application Layer
HTTPS
FTP
SMTP
LDAP
Gateway
Proxy
6
Darstellungs-schicht
Presentation Layer
5
Sitzungsschicht
Session Layer
4
Transport-schicht
Transport Layer
TCP
UDP
3
Vermittlungs-schicht
Network Layer
IP
ICMP
IPsec
Router
Layer 3 Switch
2
Sicherungs-schicht
Data Link Layer
WLAN
Ethernet
MAC
Switch
Bridge
Access-Point
1
Bitübertragungs-schicht
Physical Layer
1000BASE-T
Token Ring
Repeater
Hub
Netzwerk-kabel
In Schicht 7 werden Daten durch die Anwendung über das Netzwerk an ein weiteres Gerät gesandt.
Dabei nehmen die Daten den Weg von Schicht 7 (Application Layer) des Senders zu Schicht 1 (Physical Layer) des Senders. Dann werden die Daten als Datenpakete über das Netzwerk zum Ziel transportiert. Beim Empfänger nehmen die Daten den Weg von Schicht 1 zu Schicht 7 und werden aufbereitet. Die Anwendung im Empfänger nutzt die Daten und visualisiert sie.
Mozilla wird voraussichtlich in der KW 47/2020 für den Browser Firefox ab Version 83 den neuen Javascript Compiler WARP ausliefern. WARP bringt Verbesserungen bei der Ausführung von Javascript mit sich. Bei geringerem Speicherverbrauch werden die Lade- und Antwortzeiten von Javaskripten in den Webseiten beschleunigt.
Die Javascript Funktionen können zwischen dem Javascript Interpreter und dem JIT Compiler wechseln. Ähnlich wie bei Java wird in einem ersten Schritt der Javascript Quellcode in nativen Bytecode umgewandelt. Der Bytecode wird durch den Javascript Interpreter des Browsers ausgeführt.
Fazit:
Eine praktische Verbesserung bei Mozilla Firefox ab Version 83, die die Nutzung von Webseiten erhöht und noch zukünftig weiter optimiert werden wird.
Intel kann seit längerer Zeit nicht mehr mit der Konkurrenten bei der Chip Herstellung mithalten. Apple, ARM und Huawei verkaufen Prozessoren, die leistungsfähiger als die Intel Prozessoren sind.
Intel stellt immer noch CISC Prozessoren mit 14 nm Strukturen her, wo die Konkurrenz auf RISC Prozessoren mit bis zu 5 nm Strukturen produziert. Durch die geringere Größe der Transistorfunktionen und Leiterbahnen sind die hergestellten Prozessoren nicht nur leistungsfähiger, sondern auch energieeffizienter.
Die Revolution findet aber nicht nur im Notebook und Desktop Segment statt. Mit dem Raspberry Pi 400 wird ein Einsteiger Computer mit Ubuntu Linux oder Raspberian OS angeboten. Der funktioniert mit einer ARM V8 CPU und dem Broadcom BCM2711 bei einer maximalen Leistungsaufnahme von 15 Watt ebenfalls herausragend, selbst bei passiver Kühlung.
Fazit:
IT Innovationen werden nicht nur Informatiker, Fachinformatiker und Anwender beschäftigen, sondern durch Industrie 4.0 an immer mehr Plätzen in Unternehmen eingesetzt.
Das Pflichtenheft beschreibt, wie der Auftragnehmer die Anforderungen des Auftraggebers lösen will. Die Anforderungen sind im Lastenheft beschrieben. Das Pflichtenheft enthält das Lastenheft als Anlage. Genaues ist in der DIN 69901-5 und der DIN VDI/VDE 3694: 91-04 geregelt.
Das Pflichtenheft schildert, wie und mit welchen Mitteln die Anforderungen umgesetzt werden. Die Umsetzung wird erst nach der Zustimmung der Auftraggebers durchgeführt. Die Abnahme wird mit Hilfe der Beschreibung aus dem Pflichtenheft und Lastenheft durchgeführt.
Die neu aufgebaute Seidenstraße führt von Duisburg nach Lanzou in China. Wenige Stunden nach unserem Start in Duisburg erreicht der Zug die Zwischenstation Berlin.
Wir stoppen auf unserer virtuellen Reise in der deutschen Hauptstadt. Im 14. Jahrhundert wurde Berlin Mitglied der Hanse. Die Hanse hat Handelsbeziehungen mit den östlichen Handelsposten wie Danzig, Riga, Level und dem russischen Novgorod. 1695 wurde die Börse in Berlin gegründet. So ist Berlin schon seit langer Zeit ein Handelszentrum, das von den Hohenzollern verwaltet wurde. Der letzte Kaiser war Wilhelm II. , der nur 99 Tage regierte und nach der Novemberrevolution abdankte. Die Räterepublik wurde ausgerufen.
Heute ist Berlin einer der umsatzstärksten Standorte des Einzelhandels in Europa. Sehen wir uns diese interessante Stadt mit einer wechselvollen Geschichte einmal an.
Berlin bietet für Reisende auch Abwechslung.
So gibt es im Zentrum auf der Museumsinsel, die Weltkulturerbe ist.
An vielen weiteren Plätzen unterhält die Stiftung Preußischer Kulturbesitz viele kulturelle Güter über die Entwicklung Berlins von der Besiedlung der Steinzeit bis zur heutigen Zeit. Hier werden auch die jahrhundertealten Beziehungen zu weiteren Stätten spürbar. Unseren nächsten Halt werden wir in Warschau durchführen.
Jeden Tag werden durch Auftraggeber Projekte gestartet und Auftrage vergeben. Häufig wird dabei das Lastenheft eingesetzt, das in verschiedenen Normen wie z.B. VDI 4403 Blatt1, DIN 69901-5, VDI 3694 beschrieben ist.
Was ist ein Lastenheft?
Im Lastenheft werden alle Anforderungen des Auftraggebers an den Auftragnehmer beschrieben.
Es wird beschrieben, was für Aufgaben vorliegen und wofür dies zu lösen ist.
Es werden alle Forderungen vollständig beschrieben.
Eine Abgrenzung wird getroffen und beschrieben, was nicht zur Aufgabe gehört.
Nach der Klärung der Anforderungen folgt eine Analyse der Interviews und der verfügbaren Daten. Dann kann das Lastenheft strukturiert geschrieben werden.
Aufbau eines Lastenhefts
Die Gliederung ist nicht fest vorgegeben. Von dem Beispiel kann abgewichen werden.
Einführung und Beschreibung des Ist-Zustands
Beschreibung des Soll-Entwurfs und der Schnittstellen
Zusammenfassung der Anforderungen und der Spezifikation
Risikobewertung
Aufzeigen der Architektur, Entwicklungsmethoden und Projektphasen
Umfang der Lieferung und gegebenenfalls Lieferzeitpunkt
Kriterien für die Abnahme
Vereinbarung für Wartung, Support und Pflege
Auf Basis des Lastenhefts erstellen mögliche Auftragnehmer ein Pflichtenheft, das ich noch ein einem weiteren Artikel beschreibe.
Standardsoftware wird nach unternehmensinternen Qualitätsrichtlinien programmiert und verkauft. Wie ist das aber bei individuell erstellter Software?
Es gibt allgemeine Qualitätsrichtlinien, die aber vor der Auftragserteilung festgelegt sein sollten. Denn es gilt:
„Qualität ist die Erfüllung der Kundenanforderungen.“
8 Kriterien für Qualität bei Software Entwicklung
Es gibt wichtige Eigenschaften, die bei der Softwareentwicklung eine tragende Rolle spielen. Denn schließlich soll die Software während der Nutzungsdauer problemlos und kostengünstig eingesetzt werden können.
Benutzerfreundliche Bedienung
Ein Programm oder eine App sollen einfach zu bedienen sein. der Anwender soll möglichst ohne Hilfe zum Erfolg kommen.
Unempfindlich gegen Fehler
Eingabefehler sollen abgefangen werden, Fehlbedienung nicht möglich sein.
Integrität und Sicherheit
Die Daten und das System sollen gegen unberechtigte Zugriffe und Manipulation geschützt sein.
Korrekte Funktion
Bei der Eingabe, Verarbeitung und Ausgabe dürfen keine Fehler auftreten. Bei gleichen Eingeben muss stets das gleiche Ergebnis erscheinen.
Portable Verwendung
Die Software soll auf anderen Systemen nutzbar sein.
Überprüfbarkeit
Bei der Abnahme der Software soll der Prüfungsaufwand gering sein.
Kompatibel zu anderen Anwendungen
Die Software soll einfach mit weiterer Software verbunden werden können.
Erweiterbare und wiederverwendbare Eigenschaften
Die Software soll leicht mit neuer Funktionalität ausgestattet und vorhandene Funktionen erweitert werden können.
Fazit:
Software Qualität ist wichtig und entscheidet mit, wie die Nutzung im beruflichen Alltag stattfindet. Gerade bei den Projekten Industrie 4.0 und der zunehmenden Digitalisierung in allen beruflichen Bereichen ist fehlerfreie, hochwertige Software eine Basisvoraussetzung.
Algorithmen treffen wir tagtäglich in unserem Leben, denn Sie sind Anleitungen zur zielgerichteten Lösung von Problemen. Erstmals beschrieben hat dies der choresmische Gelehrte Al-Chwarizmi im 9. Jahrhundert. Er lebte in Bagdad, Iran.
Verfeinert wurde der Begriff im 20. Jahrhundert durch den in Großbritannien diffamierten Mathematiker Alan Touring.
Definition eines Algorithmus
Das Verfahren muss zum richtigen Ergebnis führen
Der Verfahren muss mit einem endlichen Text die Anforderungen ganz erfüllen
Das Verfahren besteht aus Arbeitsschritten, die zielgerichtet zur Lösung führen
Jeder einzelne Schritt muss ein eindeutiges Ergebnis besitzen
Gleiche Eingabewerte müssen immer zum gleichen Ergebnis führen
Das Verfahren muss auf alle zulässigen Daten fehlerfrei anwendbar, also Allgemeingültig sein
Hochwertige Programme erfüllen diese Anforderungen. Denn die Definition von Qualität lautet:
Qualität ist die Erfüllung der Kundenanforderungen
Computermonitore aus der Frühzeit der EDV waren monochrom. Es gab grün- und bernstein-farbene anzeigende Geräte. Als Mitte der 80er Jahre die Farbmonitore auf den Markt kamen, hat die Bildbearbeitung mit dem Computer begonnen. 1985 wurde mit Deluxe Paint eine leistungsfähige Bildbearbeitung mit dem Commodore Amiga präsentiert. Photoshop kam 1990 auf den Markt.
Die Monitore veränderten sich zu Flachbildschirmen und die Anforderungen an die Bildqualität dieser Geräte stiegen in den folgenden Jahrzehnten. Druckereien waren auf Farbtreue während des ganzen Produktionsprozesses angewiesen. Schließlich sollte eine fotografierte, rote Tomate in der gedruckten Zeitschrift ebenso aussehen wie das Original. So war die Standardisierung des Farbraumes notwendig. Dazu wurden verschiedene Farbmodelle entwickelt, von denen ich zwei Modelle vorstelle.
Betrachten wir zuerst die Grundlagen der Farbmischung. Um eine große Menge an unterschiedlichen Farben darzustellen, werden aus drei Grundfarben viele unterschiedliche Farben gemischt. Auf dieser Basis gibt es eine additive Farbmischung und eine subtraktive Farbmischung. Der darstellbare Bereich von Farben wird Gamut genannt.
Additive Farbmischung
Diese Farbmischung basiert auf selbstleuchtenden Farben. Von Schwarz (Keinerlei Farbe) wird durch die drei grundlegenden Farben Rot, Grün und Blau (RGB).
Ein Abbild vieler Farben ist so möglich. Nach diesem Prinzip arbeiten die Computer Monitore.
Subtraktive Farbmischung
Bei der subtraktiven Farbmischung werden die Farben durch eine Lichtquelle beleuchtet. Das reflektierte Licht fällt in unsere Augen und wir können die Farben sehen. Wenn das weiße Licht auf die Farben fällt, dann werden Lichtanteile verschluckt. Durch die reflektierten Lichtanteile sehen wir die Farbe. Die drei Grundfarben der subtraktiven Farbmischung sind Cyan, Magenta und Gelb.
Nach diesem Prinzip arbeiten Drucker und Farben, die wir im täglichen Leben benutzen. Allerdings wird bei Farbdrucken im Regelfall kein perfektes Schwarz erreicht. Daher gibt es Fotodrucker die noch weitere Farben wie Schwarz, Grau oder ein helles Gelb verwenden.
Das RGB Farbmodell
Das RGB Farbmodell basiert auf additiver Farbmischung. Es wird daher bei Farbdisplays, Fernsehern, Beamern und ähnlichen Geräten genutzt. Aus den 3 Grundfarben Rot, Grün und Blau werden die dargestellten Farben gemischt. Die Werte der einzelnen Farben können zwischen 0 und 100% liegen. Im Internet werden Farbtiefen von 24 Bit (= 8 Bit Rot, 8 Bit Grün und 8 Bit Blau) genutzt. Dadurch ergibt sich ein Wertebereich von 256 Stufen bei jeder Grundfarbe und eine Farbanzahl von 16.777.216 Farben. Sehr gute Monitore können eine Farbtiefe von 10 Bit pro Grundfarbe abbilden. Also insgesamt 30 Bit Farbtiefe und damit 230 oder mehr als 10 Milliarden Farben. Viele Grafikkarten können bis 232 Bit Farben darstellen. Dazu die RGB Farbraum Darstellung von Torre Anders. Der RGB Farbraum liegt innerhalb des schwarzen Dreiecks.
Das CMYK Farbmodell
Auf subtraktiver Farbmischung basiert das CMYK Farbmodell. Es basiert auf den Grundfarben Cyan, Magnet, Gelb und einem Schwarz-Anteil, der auch „Key“ genannt wird. Da es bei der Umsetzung dieses Farbmodells keine passend tiefes Schwarz gibt, wird Schwarz als 4. Faktor hinzugefügt. Dieses Farbmodell wird seit 1843 im Druckbereich beim 4-Farben Druck eingesetzt. Geräte dafür sind der Tintenstrahl Drucker, Farblaser Drucker, 4-Farben Druckmaschinen für Bücher, Zeitschriften und weitere Druckerzeugnisse.
Heute stelle ich den Webseiten Editor Brackets von Adobe vor. HTML Seiten lassen sich mit jedem Editor erstellen. Der Unterschied bei den Editoren liegt in der Unterstützung bei der Erstellung des Webseiten Kodes. Hier leistet der Open Source Editor Brackets gute Unterstützung.
Funktionen von Brackets
Horizontales und vertikales Aufteilen des Editorfensters mit „Split View“
Umfangreiche Funktionsergänzung durch viele Erweiterungen
Auswahl verschiedener Themen und dadurch „Dark Mode“ möglich
Aufruf von Quick Edit (CTRL+E)
zum schnellen Bearbeiten von Klassen und Ids
Auswahl von Farben
Erstellen von CSS Regeln
Aufruf von Javascript Funktionen
Unterstützung von LESS, SCSS und CSS
Umfangreicher Quellcode kann gefaltet werden
Eine Mehrfachauswahl und mehrfacher Cursor erleichtern das Schreiben des gleichen Textes an verschiedenen Stellen
Eine Suche von Text in geschlossenen Dateien ist möglich
Mit CTRL+Leertaste werden Code Vorschläge angezeigt
Dazu gibt es noch viel weitere Funktionalität die zeigen, warum dieser Quellcode Editor so beliebt ist.
Web Entwickler brauchen für die Erstellung von Webseiten, CMS, Blogs und weiteren internet-affinen Systemen eine Entwicklungsumgebung. Hier bietet seit vielen Jahren die Open Source Entwicklungsumgebung XAMPP eine tragende Rolle.
XAMPP Installation
Im nachfolgenden Video wird die Installation von XAMPP gezeigt. Mit dabei sind Tipps und Tricks.