XML, die erweiterbare Auszeichnungssprache

XML oder ausgeschrieben Extended Markup Language ist eine Metasprache mit der Daten strukturiert beschrieben werden können. XML hat sich aus der Ende der 1960-er Jahre erfundenen Metasprache SGML weiter entwickelt. Mit XML wird die Struktur, der Inhalt und die Darstellung der Daten getrennt. Dadurch lassen sich die 3 Teilbereiche unabhängig voneinander verarbeiten. Auch die millionfach eingesetzte Auszeichnungssprache HTML basiert auf XML und SGML.

Bei der KI dient diese Sprache zur Kommunikation zwischen Anwendungen und Maschinen. So spielt XML eine immer wichtigere Rolle bei der Maschine zu Maschine Kommunikation und wird zudem bei Konfigurationen von IOT Geräten eingesetzt.

Definition von Dokumentklassen

Bevor Daten übertragen werden können, erfolgt die Deklaration der XML-Elemente. Dazu gibt es zwei Möglichkeiten zur Erstellung von Dokumentklassen und Elementen.

  1. Mit DTD, der Document Type Definition lassen sich die Dokumentklassen und Elemente definieren.
  2. Die zweite und modernere Methode ist das XML Schema.

Struktur der XML Dokumente

Die Dokumenttyp Definition

Beispiel bestellung.dtd

Oder alternativ das XML Schema

Beispiel bestellung.xsd

Das XML Dokument mit den strukturierten Daten

Beispiel bestellung.xml

Das XML Dokument nutzt im Dokumentenkopf entweder das XML Schema oder den DTD. Die Elemente von XML werden auch Tags oder Nodes genannt.

Vorteile von XML

  • Als Konfigurationsdateien bleiben die Daten für den Menschen lesbar
  • Über Schnittstellen und Webservices wie SOAP  und REST lassen sich Daten systemübergreifend austauschen
  • Die Dateien lassen sich mit jedem Texteditor öffnen und bearbeiten
  • Mit Hilfe von CSS oder XSLT lassen sich die Daten transformieren und so unterschiedlich nutzen.

 

 

Die 10 Gebote der Netz Sicherheit

Immer mehr Nutzer bewegen sich täglich im Internet. Dort gibt es viele Informationen, aber auch wie in der realen Welt Datensammler, Kriminelle und Industriespionage.

blank

So gilt es die Privatsphäre zu wahren.

Wer Sicherheit der Freiheit vorzieht, bleibt zu Recht ein Sklave.
Aristoteles

So ist klar:  Mit dem gesunden Menschenverstand muss jeder abzuwägen, wie Freiheit und Sicherheit im richtigen Maß erhalten werden können.

Welche Bereiche umfasst die Netzsicherheit

  • Schutz vor Datenverlust
  • Sicherheit vor Fehlverhalten
  • Komprimitierung verhindern
  • Schutz bei Angriffen

Schritte zu grundlegender Sicherheit im Internet

Durch eine geeignete Planung kann der Kompromiss zwischen Freiheit und Sicherheit abgestimmt werden. Dazu gehört die Festlegung der Ziele und die Auswahl der geeigneten Maßnahmen. Für die Umsetzung und Betrieb werden Ressourcen gebraucht, die auch bereit gestellt müssen.  Änderungen dürfen nur Personen mit Know-How durchführen. Die  Folgen sind durch eine Risikoanalyse abzuschätzen.

Die 10 Gebote der Netzsicherheit

  1. Verantwortlichkeiten festlegen
  2. Einvernehmliche Regeln festlegen
  3. Genügend Ressourcen bereitstellen
  4. Die Nutzer stets einbeziehen
  5. Wichtige Prozesse und Abläufe definieren
  6. Regelmäßige Sicherung der Daten
  7. Einsatz von Firewall und Antiviren Programmen
  8. Verschlüsselung von wichtigen Internet Verbindungen und E-Mails
  9. Kritischer Umgang mit persönlichen Daten in sozialen Netzwerken und in der Cloud
  10. Die Handlungen des Menschen hinter den Computern sind das größte Risiko

Wie sagte bereits der ehemalige US Präsident Benjamin Franklin:

Jene, die grundlegende Freiheit aufgeben würden, um eine geringe vorübergehende Sicherheit zu erwerben, verdienen weder Freiheit noch Sicherheit.

Franklin und Aristoteles hatten eine Vorahnung. So sind Sklaverei, Unterdrückung und das Faustrecht des Stärkeren, damals wie heute in der NWO festgeschrieben. Dauerhafte Sicherheit gibt es auch heute nicht.

Ausbildungsbereiche bei IT Berufen nach AO 2017

In Bereich IT gibt es verschiedene Ausbildungsbereiche. Dabei gibt es Berufe mit mehr technischer Ausrichtung und mit mehr kaufmännischer Ausrichtung.

Die Ausbildungsordnung von 2017 gliedert diese in die Bereiche:

  • Fachinformatiker
    • Anwendungsentwicklung
    • Systemintegration
  • IT Systemelektroniker
  • IT Systemkaufmann/frau

Die Lehrinhalte werden in der Tabelle für die verschiedenen Berufe  nach Themengebieten angeordnet. Die Schwerpunkte werden je nach Unternehmen unterschiedich gesetzt.

Thema FI
System-integration
FI
Anwendungs-entw.
IT
System-elektron.
IT System-kaufmann
Math. u. techn. Grundlagen J J J T
Hardware T J J T
Netzwerk J J J T
Grundlagen
Betriebssysteme
J J J T
MS Windows J J J T
Linux J J J T
Grundlagen Programmierung J J J T
Algorithmen T J J N
Datenbanken / SQL J J T T
Webserver J T T N
Serverdienste im Internet J T T N
Datenformate J J T T
HTML / CSS T J T T
Javascript T J N N
PHP T J T N
Netzwerksicherheit J T J T
Datensicherheit / Datenschutz J J J J

Legende: J=Vollständig; T=Teilweise; N=In geringem Maße

Fehlersuche in Java mit dem Eclipse Debugger

Um ein perfektes Produkt mit der Programmiersprache Java zu erstellen braucht es eine gründliche Qualitätskontrolle und methodisches Vorgehen.

Der Entwickler unterscheidet, ob ein logischer Fehler oder ein Schreibfehler vorliegt. Logische Fehler können mit Hilfe  einer genauen Beschreibung des Produkts oder Vorgangs durch Soll-Ist Vergleiche erkannt und beseitigt werden. Manchmal wäre es praktisch, wenn ein Programm zum Test Schritt für Schritt ausgeführt werden könnte und dabei die Werte der Variablen, Übergabeparameter und Attribute auslesen kann. Hier kann die Java Entwicklungsumgebung Eclipse durch den integrierten Debugger unterstützen. Durch setzen eines Breakpoints, einer temporären Haltestelle, können die gewünschten Werte geprüft werden. Das setzen des Breakpoints erzeugt einen kleinen blauen Punkt auf der linken Seite. Durch erneutes Klicken mit der Maus auf diesen Punkt wird der Breakpoint wieder entfernt.

Breakpoint im Eclipse Debugger

Mit der Taste F11 wird der Debugger in Eclipse gestartet.  Bei Punkt 1 wird die Breakpoint Markierung und der Java Quellcode angezeigt.  Bei dem rechten Fenster werden bei Punkt 2 die Breakpoints und nach dem klicken auf einen Breakpoint werden unten weitere Informationen angezeigt. Auf der linken Seite bei Punkt 3 die Aufrufhierarchie angezeigt.

Java Debugger bei Eclipse

Für die weitere Bearbeitung stehen weitere Funktionen zur Verfügung

  • F5 Step into
    Es können Methoden aufgerufen und in der ersten Zeile angehalten werden. Ansonsten wird der Debugger bis zum nächsten Methodenaufruf weiterlaufen.
  • F7 Step Return
    Mit Step Return kann der Sprung in eine Methode durch Step Into zurückgenommen werden und an der vorherigen Haltestelle wieder weiter analysiert werden.
  • F6 Step Over
    Step Over kann einen zu analysierenden Bereich überspringen.
  • F8 Resume
    Das Programm wird bis zum nächsten Breakpoint ausgeführt.
  • CTRL+R Run To Line
    Die Ausführung des Programms wird bis zu einer bestimmten Zeile durchgeführt.
  • CTRL+F2 Terminate
    Die Ausführung des Programms wird beendet.

Mit dem Debugger lassen sich während des Probelaufs eines Programms die Variablen, Schleifen, Abfragen, Methodenaufrufe beobachten und so können Fehler leichter gefunden werden.

 

Die PDCA Methode von William Edwards Deming

Dr. William Edwards Deming, der Mann der die Welt veränderte und den kaum einer kennt. Dr. Deming war ein Guru des Qualitätsmanagements, der neue Wege aufzeigte und umsetzte. Seine Methoden machten Toyota zum langjährigen Weltmarktführer im Automobilbau. Die US Autoindustrie wurde in den 80er Jahren durch mangelhafte Qualität und „This is good enough“ fast ruiniert.

Eine von Dr. Demings  grundlegenden Methoden ist die PDCA Methode.

PDCA Methode
Die Nutzung gestaltet sich in vier Schritten. Diese werden beliebig oft wiederholt.

  1. Plan: Plane den Vorgang
  2. Do: Führe den Vorgang wie geplant aus
  3. Check: Prüfe das Ergebnis, z.B.  mit einem Soll-Ist Vergleich
  4. Act: Handle und gestalte den Vorgang mit den neuen Erkentnissen um

Sie werden feststellen, dass sich ihr Produkt oder ihre Dienstleistung stetig verbessern.

Wie Sie die Cloud sicher nutzen

Daten und Informationen auf Computern überall und jederzeit zur Verfügung zu haben, ist kostengünstig und produktiv. Doch wenn die Daten gestohlen oder vernichtet werden, kann das ein Unternehmen schwer schädigen.

Risiken bei der Nutzung der Cloud

  • Hacken des Netzwerks​
  • Richtige Konfiguration der Cloud​
  • Falsch gesetzte Zugriffsberechtigung​
  • Einbruch durch eine andere Instanz einer Virtuellen Maschine​
  • Abhängigkeit von der Cloud eines Betreibers​
  • Pishing durch weitere Nutzer​
  • Hack durch Geheimdienste oder unbekannte Geheimgesetze​
  • Ausfall durch Terrorismus, Krieg oder mangelnde Infrastruktur​
  • Ausfall der Netzverbindung

Lösungen zur Risiko Minimierung

  • Sorgfältige Konfiguration mit abschließenden Tests durchführen​
  • Sensible Daten zur Sicherheit verschlüsseln​
  • Mitarbeiter weiterbilden und schulen​
  • Daten redundant an verschiedenen Plätzen ablegen und ggf. synchronisieren​
  • Daten nur mit größtmöglicher Verschlüsselung transportieren​
  • Mehrere Transportkanäle nutzen

Durch sorgsamen Umgang und die richtige Vorgehensweise kann die Cloud produktiven Gewinn bringen. Wenn die Daten in Europa liegen, gilt zudem der europäische Datenschutz. Das ist besser, als die Daten ungeschützt in den USA zu lagern.

Industrie 4.0 und der Einsatz von OPC UA

Industrie 4.0 setzt den Einsatz von digitaler Kommunikations – und Steuertechnik voraus. Denn Geräte der Industrie 4.0 sind mobil und ständig miteinander vernetzt. Das braucht den Einsatz verschiedener Kommunikationsprotokolle wie zum Beispiel OPC UA.

Was ist OPC UA?

  • Open Platform Communications Unified Architecture und besteht aus einer Reihe von Protokollen​
  • Es standardisiert die Maschine zu Maschine (M2M) Kommunikation
  • Es stellt serviceorientierte Architekturen (SOA) zur Verfügung​
  • Durch geeignete Semantik bei der Kommunikation wird die Anzahl der Schnittstellen gering gehalten​
  • Die Bereitstellung einfacher Schnittstellen​ sorgt für umfangreiche Standdardisierung
  • Einheitliche Nachrichtenformate vereinfachen den Austausch von Daten und Informationen
  • Es gibt flexible Erweiterungsmöglichkeiten​
  • Eine Implementierung hoher Sicherheitsstandards mit verschiedenen Sicherheitslevel ist verfügbar
blank
  • Redundanz sichert Datenverluste ab​
  • Heartbeat zur Verbindungsüberwachung in beide Richtungen, d. h. sowohl Server als auch Client bemerken Unterbrechungen.​
  • Pufferung von Daten und Quittierung von übertragenen Daten. Verbindungsunterbrechungen führen nicht zu Datenverlust. Verlorene Daten können erneut angefordert werden.

Fazit:

Industrie 4.0 ist am Aufbau und wird das Arbeits- und Sozialgefüge massiv verändern.

Datenbanken im Zeitalter der „Industrie 4.0“

Seit der Entwicklung von Computern spielen Datenbanken eine wichtige Rolle bei der Datenverarbeitung. Die Datenmenge ist im Zeitalter der Industrie 4.0 um ein vielfaches mehr geworden. Bei der Erfassung und Verarbeitung der Daten gibt es immer leistungsfähigere Geräte, wie Scanner, Kameras, Sensoren, Roboter oder Werkzeugmaschinen.

Mit der wachsenden Anzahl an vernetzten, digitalen Geräten wird die verarbeitete Datenmenge viel größer werden. Zudem soll zwischen den beteiligten Maschinen, Robotern und Menschen ein Datenaustausch in Echtzeit stattfinden. Die Daten müssen gespeichert, archiviert und innerhalb kurzer Zeit an beliebigen Orten wieder abrufbar sein. Dabei sind die Berechtigungen für die Daten und der Schutz der Daten einzuhalten.

So gibt es für die Ingenieure für die KI und die Produktionstechnik der Industrie 4.0 vielfältige Anforderungen zu erfüllen.

Dazu sind neue Speichermedien und Techniken für den Transport der Daten, in für heutige Maßstäbe kaum vorstellbaren Größen, zu entwickeln. Zudem wird durch den Einsatz von Quantencomputern die benötigte Rechenleistung zur Verfügung gestellt, um die KI für Industrie 4.0 und für Solarnet umfassend einsetzen zu können. Denn die Menschheit ist dann auch auf dem Mond beheimatet und auf dem Weg zur Besiedelung des Mars. Mit der Industrie 4.0 wird ein neues System etabliert, dass durch die KI den neoliberalen Kapitalismus ablöst.

Allerdings lassen sich die grundlegenden Elemente der Datenverabeitung weiterhin nutzen. Der Sprachumfang von SQL wird dem Full Level Stand entsprechen und weitere nützliche Funktionen zur Verfügung stellen. Zudem werden die mehrdimensionale Speicherung von Daten neue Wege der Verarbeitung bringen.

Anforderungen an Industrie 4.0

    • Die aktuellen Protokolle Open Platform Communications Unified Architecture (OPC UA) und Time Sensitive Networking (TSN) sind für Industrie 4.0 nur eingeschränkt nutzbar. Es fehlt teilweise die Echtzeit Nutzung bei der Übermittlung und Verarbeitung von Daten durch passende Schnittstellen oder Feldbusse​
    • Roboter stehen nicht mehr an einem Platz, sondern bewegen sich im Rahmen der Aufgaben in verschiedenen räumlichen Bereichen ​
    • Der Austausch von Information zwischen den Maschinen ist mit kurzer Antwortzeit notwendig. Das vermeidet Kollisionen und optimiert Prozesse​
    • Neue Technologien, wie verschränkte Kommunikation, sind bei großen Entfernungen notwendig
    • Eine Zuordnung der Informationen erfolgt durch Zuordnung von Kontext und der Ausweitung bei der Verarbeitung von Metadaten​
    • Die Weitergabe von Daten erfolgt kontextbezogen​
    • Der schnelle Eingriff in maschinenorientierte Abläufe durch den Menschen muss zu jeder Zeit möglich sein​
    • Auch Echtzeit Daten sind vollständig zu speichern, zu archivieren und innerhalb kürzester Zeit an jedem Ort zur Verfügung zu stellen
    • Der Datenschutz und und die Datensicherheit inklusive Berechtigungen müssen bei allen Daten angewendet werden
    • Die 3 Roboter Gesetze von Isaac Asimov sind einzuhalten​
    • Durch selbst optimierende Programme der KI werden bisher bestehende Fehlerquoten mehr und mehr eliminiert
    • Selbst reproduzierende Industrie erleichtert in ferner Zukunft die Industrialisierung von Planeten, Asteroiden und Monden

    • Die Menschen werden in Symbiose mit Maschinen leben

 

Daten – Information – Wissen im Kontext der Informatik

Der Begriff Information ist in der römischen Antike zum Beispiel durch Cicero als Vorstellung der Götter “informatio dei” genutzt worden. Augustinus hat mit “informatio sensus” den Prozess der sinnlichen Wahrnehmung auch als Unterweisung und Belehrung abgeleitet. Im 15. und 16. Jahrhundert wurde “informare” für die Tätigkeit der Benachrichtigung genutzt.

Der Mathematiker Claude E. Shannon definierte 1948 in seinem Aufsatz ” A Mathematical Theory of Communication” den Begriff Information im Kontext der Nachrichtentechnik. Daraus entstanden Wissenschaftsbereiche wie Informationswissenschaft und Informatik. Aber auch die Disziplinen Soziologie, Medientheorie und Philosophie wurden dadurch beeinflusst.(1)

Betrachten wir, wie Daten zu Information und Wissen werden

Daten sind in der Informatik Zeichen, die meist maschinenbearbeitbar sind. Stehen diese Zeichen im Kontext einer Bedeutung, dann werden aus strukturierten Daten Informationen.

Aus Informationen wird Wissen, wenn Menschen durch Beobachtung oder Erfahrung auf Zusammenhänge schließen. Nach der Philosophie Kants wird dies mit durch den Verstand kontrollierte Vernunft erreicht.

Beispiel

Daten 08937432
Information (durch Kontext “Telefonnummer”) 08937432
Wissen (durch Erfahrung oder Beobachtung: München hat die Vorwahl “089”) 08937432

 

In diesem Zusammenhang gibt es eine asiatische Sichtweise, die ein berühmter asiatischer Philosoph schrieb(2)

Die Nichtwissenheit wissen
ist das Höchste.
Nicht wissen, was Wissen ist,
ist ein Leiden.
Nur wenn man unter diesem Leiden leidet,
wird man frei von Leiden.
Daß der Berufene nicht leidet,
kommt daher, daß er an diesem Leiden leidet;
darum leidet er nicht.

 

Quelle: (1) Alexander Roesler/Bernd Stiegler “Grundbegriffe der Medientheorie”; (2) Laotse

Die Seidenstrasse – erfolgreicher Handel zwischen Asien, Naher Osten und Europa

Die Seidenstraße hat den Projektnamen One Belt – One Road (OBOR).

Die jahrhundertealte Handelsroute ist durch China wieder neu erwacht. Der Handel über die Seidenstraße wurde während der zweitausendjährigen Geschichte manchmal unterbrochen oder durch den Einfluss von Interessen von Staaten erschüttert. Für 400 Jahre wuchs und florierte zunehmend der Handel entlang der Seidenstraße, bis politische Veränderungen diese zum Stillstand brachten.  Eine zweite Blütezeit erlebte die Seidenstraße für 300 Jahre während der Tang-Dynastie. Während der Herrschaft der Mongolen im 13. Jahrhundert wurde die alte Seidenstraße wieder genutzt und erreichte während dem 14. bis zum 17. Jahrhundert ihren wirtschaftlichen Höhepunkt.

Die Seidenstrasse : One Belt - One Road

Bei der Seidenstraße geht es nicht nur um Handel, sondern auch um Wirtschaftswachstum, Umweltschutz durch Reduzierung von Emissionen und schnelleren Transport von Waren.

Auch neue Dienstleistungen werden benötigt und das bringt den beteiligten Staaten Wachstum. So gibt es nicht nur die Ost-West Routen , sondern auch einen schnelleren Ersatz des Suezkanals über die Eisenbahnstrecke Mumbai – St. Petersburg. Zudem gibt es die kürzere Seidenstraße Nordroute durch die eisfreien Gewässer des Arktischen Ozeans. Damit profitiert Europa mit einer kostengünstigen und schnelleren Belieferung mit Waren aller Art.

Vor kurzen gab es Wirtschaftsvereinbarungen zwischen China, Deutschland, Österreich und der Schweiz. Der chinesische Staatspräsident Xi Jinping sagte umgerechnet rund 124 Mrd. US-Dollar für OBOR zu:

“The glory of the ancient Silk Road shows that geographical dispersion is not insurmountable”
„Der Ruhm der alten Seidenstraße zeigt, dass geographische Streuung nicht unüberwindbar ist“

Allerdings gibt es auch Gegner der Seidenstraße die Einbußen ihres Handels befürchten. Denn mit völkerrechtswidrigen Kriegen, Putschen von Staaten versuchen neoliberale angelsächsische Staaten unter Führung der USA mit dem Angriffsbündnis NATO eine New World Order mit Erpressung, Unterdrückung, Raub, Sklaverei  und Rechtlosigkeit weltweit aufzubauen und die Seidenstraße zu verhindern. Das hat aber zum gegenteiligen Ergebnis geführt.

Fazit:

Die Seidenstraße bringt dem Welthandel auf Touren. Alle Staaten an der Route werden wirtschaftlichen Aufschwung erhalten. Es entstehen neue Arbeitsplätze und ein umfangreicher Austausch an Wissen findet statt.

One Belt – One Road ist Welthandel von unabhängigen Staaten die eine „Win- Win“ Situation mit friedlicher Entwicklung erfahren.

Das V-Modell bei Internet Applikationen nutzen

Vorgehensweisen für Software- und Webseiten Entwicklung gibt es viele. Heute lernen wir das V-Modell kennen, dass von mir auf Webdesign angepasst wurde. Das V-Modell beinhaltet Projektmanagement, Konfigurationsmanagement, Änderungsmanagement und Qualitätssicherung.

V-Modell

V-Modell im Webdesign

Es unterscheidet sich zu anderen Vorgehensweisen dadurch, dass hier hauptsächlich Aktivitäten und Ergebnisse definiert werden.

Vorgehensweise beim V-Modell

V-Modell – Vorgehensweise

Fazit:

Das V-Modell hat aus meiner Sicht eine strukturierte Vorgehensweise. Es ist nicht für jedes Projekt geeignet. Auf Grund verschiedener Kritikpunkte wurde das V-Modell insofern geändert, dass jetzt V-Model XT zusätzlich agile Software Entwicklungstechniken eingesetzt werden. Zudem wird der Auftraggeber (Kunde) mehr in eingebunden. Dies verbessert die Qualität der Produkte oder Dienstleistungen und erleichtert die Abnahme. Die Dokumentation während des gesamten Zyklus unterstützt die Entwicklung und die darauf folgende Qualitätssicherung. Der Kunden kann die Dokumentation bei Erweiterungen oder Ergänzungen nutzen. Bei der Qualitätssicherung kann unter anderen die PDCA Methode eingesetzt werden.

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Web Entwicklung mit Hilfe der Extreme Programming Methode

Agile Software Entwicklung wird von immer mehr Entwicklern eingesetzt. Zur agilen Software Entwicklung gibt es verschiedene Modelle. Wir betrachten heute Extreme Programming.  Dieses System wurde von Ron Jeffries, Kent Beck und Ward Cunningham im Jahr 1995 entwickelt und eingesetzt.Extreme Programming ist eine Verknüpfung von Kommunikation, Offenheit, strukturierten Vorgehen und Teamarbeit.

Vorgehensweise bei Extreme Programming

  1. Rahmenbedingungen des Entwicklungsprojekts definieren
  2. Analysen durchführen
    1. Nutzenanalyse
    2. Risikoanalyse
    3. Ressourcenanalyse
  3. Synthese bzw. Erstellen eines Prototyps
  4. Abstimmen bis alle Beteiligten den Prototyp akzeptiert haben
  5. Sprung zum nächsten Entwicklungsschritt oder Iteration
  6. Entwicklung und Integration des Produkts
  7. Testen des Produkts
  8. Lebensdauer /Nutzungsdauer bestimmen
  9. Freigabe
  10. weiter mit Punkt 1 bis das Endprodukt vollständig fertiggestellt ist.

Allerdings gibt es gerade im Bereich von Webentwicklung und Software eine ständige Weiterentwicklung. So ist  jedes Produkt nur ein temporäres Endprodukt.

Vorteile von Extreme Programming

  • Der Kunde ist in den Entwicklungsprozess mit einbezogen
  • Durch die Risikoabschätzung am Beginn erhöht sich die Effizienz und Schwierigkeiten können teilweise vermieden werden
  • Kooperatives Lernen und kollektive Wissenslandschaften entstehen
  • Die Zufriedenheit der Mitarbeiter erhöht sich
  • Betriebswirtschaftlich findet eine Absicherung durch das verteilte Wissen statt

Rollen im Exterme Programming

  • Kunde/Auftraggeber
    • Bestimmt den Rahmen des Auftrags
    • Entscheidet, was gemacht wird
  • Projektmanager
    • Führt das Team
    • Kümmert sich um Problemlösung
    • Prüft Soll- und Ist Zustände aller Art
    • Stößt mangelnde Kommunikation an
  • Entwickler
    • Entwickelt das Produkt
    • Zeigt auftauchende Probleme oder Schwierigkeiten auf
  • Benutzer
    • Nutzt das Produkt
    • Gibt seine Änderungs und Erweiterungswünsche an den Auftraggeber weiter

Fazit:

Exterme Programming ist eine interessante Entwicklungsmothode und hat viel Potential. Es setzt auf Offenheit bei der Kommunikation. Denn nur so werden Probleme schnell bekannt und können Lösungen gefunden werden. Mut und Respekt im Umgang bei der täglichen Arbeit sind Voraussetzung für ein erfolgreiches Extreme Programming Projekt.

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

Das ARIS Konzept von August-Wilhelm Scheer

ARIS bedeutet Architektur integrierter Informationssysteme und wurde von August-Wilhelm Scheer, dem ehemaligen Direktor des Instituts für Wirtschaftsinformatik der Universität des Saarlandes, entwickelt. ARIS wird im Geschäftsprozess- und Informationsmanagement eingesetzt. Durch seine 5 Sichten Architektur werden komplexe Prozesse besser verständlich und lassen sich einfacher modellieren.

Die 5 Sichten von ARIS

ARIS-Modell

ARIS-Modell

Organisationssicht

Es werden alle Organisationseinheiten und Ihre Beziehungen dokumentiert. Meist geschieht dies mit Organigrammen.

Datensicht

Alle in dem Unternehmen relevanten Dokumente, Informationsobjekte, sowie deren Beziehungen zueinander, werden in der Datensicht dargestellt.  Dazu gehören zum Beispiel Daten von ERP und Entity-Relationship Diagramme.

Steuerungssicht

In dieser Sicht wird der zeitliche und logische Zusammenhang der betrieblichen Abläufe dargestellt. Dies beinhaltet unter anderem Flussdiagramme und Aktivitätsdiagramme in UML.

 Funktionssicht

Die Funktionssicht zeigt alle betriebswirtschaftlich relevanten Beziehungen in einem Funktionsbaum. In der hierarchischen Ansicht sind untergeordnete Vorgänge den übergeordneten Vorgängen zugeordnet.

Leistungssicht

Die Leistungssicht zeigt alle Produkte und Dienstleistungen in einem Produkt- und Dienstleistungsbaum.

Die 3 Ebenen der Beschreibung

Jede ARIS Schicht besitzt drei Beschreibungsebenen.

Fachkonzept

Das Fachkonzept beschreibt die Prozesse und Abläufe in einer verständlichen Sprache. Zudem werden weitere Datenmodelle genutzt. Dies wären zum Beispiel Organigramm, Funktionsbaum, ERM.

DV-Konzept

Im DV-Konzept wird spezifiziert, was wie in der EDV umgesetzt wird. Hier werden Schnittstellen definiert, und es werden Freiheitsgrade in der Datenverarbeitung herausgearbeitet. Genutzt werden dazu, UML, Relationen, Struktogramme und Topologien.

Implementierungsebene

Es erfolgt die Umsetzung der beschriebenen Prozesse durch Programmierung. Zur Erstellung werden Server, Datenbanken, Schnittstellen und Protokolle genutzt.

 

„ARIS-Modell“ von Marcel Light – Eigenes Werk. Lizenziert unter Creative Commons Zero

Software Entwicklung mit dem Wasserfall Modell

Bei der klassischen Software Entwicklung wird oft das statische Wasserfall Modell eingesetzt. Diese zeichnet sich durch eine strukturierte Vorgehensweise mit 5 oder 6 Phasen aus. Es eignet sich vor allem bei klar definierbaren Anforderungen und Prozessen.

Wasserfall Modell

 

Vorteile des Wasserfall Modells

  • Die Planung lässt sich gut durchzuführen
  • Die Phasen können eindeutig definiert werden
  • Die notwendigen Ressourcen lassen sich bei nicht veränderten Bedingungen gut abschätzen
  • Eine Kontrolle kann gut in den Prozess integriert werden

Nachteile  des Wasserfall Modells

  • Starres System – Änderungen lassen sich nicht flexibel umsetzen
  • In der Praxis gibt es meist keine klar abgegrenzten Phasen
  • Der Einsatz des Produkts erfolgt zu einem späten Zeitpunkt
  • Fehler werden unter Umständen spät erkannt und führen durch größeren Aufwand zu höheren Kosten

Alternativ gibt es die Vorgehensmodelle wie das Wasserfall ModellV-Modell, Kanban und Scrum.

4 Vorteile durch Weiterbildung in Europa

Wenn Sie neu in Deutschland sind und Ihre Kenntnisse in bestimmten Technologien aufbessern wollen. Wenn Sie kulturelle- und Management Kenntnisse benötigen, dann kann eine Weiterbildung Ihnen den nötigen Wissensvorsprung liefern.

Über 50 % der Beschäftigten in Deutschland nehmen jährlich an einer Weiterbildung teil, bei der meist der berufliche Bereich im Vordergrund steht. Gerade Akademiker bilden sich überdurchschnittlich weiter und das verschafft ihnen Vorteile im Berufsleben und bei der Karriere.

Die kommunikative Wende durch den Wandel der Medien

Eine im letzten Jahrhundert einsetzende, internationale Debatte beschäftigt sich mit der Änderung unserer täglichen Kommunikation. Durch den ‘linguistic turn’ in unserer Zeit wird nicht mehr nur durch die Medien Sprache, Schrift die Kultur und die Geschichte weitergegeben. Viel mehr treten die neuen Medien wie Internet und Video an, um alltägliche, kulturelle Gegebenheiten auch bildhaft wiederzugeben.

Das gesprochene und das geschriebene Wort bilden nach der heutigen Meinung der Kommunikationswissenschaft zwei selbständige Erscheinungsformen. Die geschriebene Sprache wird die soziale und politische Entfaltung, sowie die wissenschaftliche Forschung vorantreiben.

Die Kulturen der Länder aber werden durch die neuen Medien auf einen Widerspruch der Werte zwischen den traditionell erzogenen Menschen und den Generationen der medial aufgewachsenen Menschen treffen. Der daraus folgende Wertewandel wird sich mit den jetzt genutzten Methoden der Gesellschaft nicht zu lösen lassen.

Neue Wege müssen gegangen werden. Das dunkle Web spielt dabei eine tragende Rolle. Denn dort spiegelt sich das Leben der Menschen wieder. Wir akzeptieren, dass visuelle und kognitiv aufbereitete Informationen die Menschheit verändern. Nur konsequent umgesetzte Menschenrechte sorgen für den notwendigen Anschub.

Tragen Sie durch Ihre Beiträge bei, dass sich das Zusammenleben der Menschheit weiter verbessert, indem Sie Ihre Beiträge leisten und anderen zur Verfügung stellen!