it-sa 2025: Europas Leitmesse für IT-Sicherheit in Nürnberg

Vom 7. bis 10. Oktober 2025 findet in der Messe Nürnberg die it-sa – IT Security Expo & Congress statt. Die it-sa gilt als eine der führenden Plattformen für Informationssicherheit in Europa und bringt Hersteller, Dienstleister, Anwender aus Unternehmen und Behörden sowie Forschung und Start-ups zusammen. Im Mittelpunkt stehen aktuelle Bedrohungslagen, Strategien zur Cyberresilienz und praxisnahe Lösungen für den Schutz von Daten, Systemen und Infrastrukturen.
Die Messe überzeugt durch thematische Breite und Tiefe: Von Cloud-, Netzwerk- und Anwendungssicherheit über Identitäts- und Zugriffsmanagement bis hin zu OT-/ICS-Security, Zero-Trust-Architekturen, KI-gestützter Erkennung und Compliance-Anforderungen. Aussteller präsentieren Produkte, Services, Schulungen und Beratungsangebote; Besucher erhalten einen schnellen Marktüberblick und fundierte Orientierung für konkrete Beschaffungs- und Umsetzungsentscheidungen.Ein Markenzeichen der it-sa ist die enge Verzahnung von Expo und Kongress:
In offenen Fachforen sowie im Programm Congress@it-sa werden produktneutrale Vorträge, Panels und Best-Practice-Sessions angeboten.
Damit adressiert die it-sa gleichermaßen technische und organisatorische Aspekte – von Hardening-Guidelines und DevSecOps-Pipelines bis zu Governance, Risk & Compliance Themen.
„it-sa 2025: Europas Leitmesse für IT-Sicherheit in Nürnberg“ weiterlesen

Ollama: Die KI für Ihren eigenen PC – Funktionsumfang, Vor- und Nachteile

Die Welt der Künstlichen Intelligenz (KI) scheint oft eine exklusive Domäne großer Tech-Konzerne zu sein, deren Server in fernen Rechenzentren stehen. Doch was, wenn Sie die neuesten KI-Modelle lokal auf Ihrem eigenen Computer ausführen könnten – ohne Internet, ohne Abo-Gebühren und mit hohem Datenschutz? Genau das ermöglicht Ollama.

Im professionellen Umfeld fahren immer mehr Unternehmen eine Doppelstrategie: Für allgemeine Anfragen und nicht-sensitive Daten werden leistungsstarke, im Internet verfügbare KI-Systeme eingesetzt.

Sobald es jedoch um die Verarbeitung von schutzbedürftigen Daten nach DSGVO, Geschäftsgeheimnissen oder personenbezogenen Informationen geht, kommen isolierte lokale KI-Systeme wie Ollama ins Spiel. Diese Strategie kombiniert die Stärken der Cloud mit der Sicherheit einer lokalen Lösung.

Was ist Ollama?

Ollama ist im Grunde ein Package Manager für große Sprachmodelle (LLMs). Stellen Sie es sich wie einen App Store vor, der speziell für KI-Modelle entwickelt wurde. Mit wenigen Befehlen in der Kommandozeile können Sie eine Vielzahl von Open-Source-Modellen wie Llama 3, DeepSeek, Mistral oder Gemma herunterladen, installieren und direkt auf Ihrer Hardware ausführen.

Ollama kümmert sich dabei um die gesamte komplexe Ablaufumgebung im Hintergrund und macht die Nutzung so erstaunlich einfach.

Funktionsumfang: Was kann Ollama?

Lokale Ausführung

Die KI-Modelle laufen vollständig auf Ihrer eigenen Hardware. Nach aktuellem Stand werden Ihre Anfragen im Offline-Betrieb ausschließlich lokal verarbeitet – ein wesentlicher Vorteil für Privatsphäre und Datenschutz.

Einfache Befehlszeilennutzung

Die Bedienung erfolgt primär über das Terminal. Ein Befehl wie ollama run llama3.2 startet sofort einen Chat mit dem Modell.

Umfangreiche Modellbibliothek

Ollama unterstützt Dutzende von State-of-the-Art-Modellen, die für verschiedene Zwecke optimiert sind (z. B. Coding, kreatives Schreiben oder Übersetzungen).

REST-API für Entwickler

Ollama stellt eine lokale API-Schnittstelle (http://localhost:11434) bereit. Dies ermöglicht die Integration in andere Tools wie:

Code-Editoren (z. B. VS Code mit der Continue-Erweiterung)

Alternative Benutzeroberflächen (z. B. Open WebUI)

Eigene Skripte und Anwendungen in Python, JavaScript etc.

Offline-Betrieb & Airplane Mode

Eine zentrale Funktion für den Datenschutz ist der Airplane Mode. In neueren Versionen lässt er sich direkt in den Ollama-Einstellungen aktivieren; in anderen Fällen sollte der Internetzugriff manuell, z. B. per Firewall, unterbunden werden. So wird sichergestellt, dass die Modelle vollständig lokal laufen und keine Daten an externe Server übertragen werden.

Hinweis zum „Turbo Mode“

Manche Nutzerberichte erwähnen eine Art „Turbo Mode“ oder die Möglichkeit, Ollama mit Online-Quellen zu kombinieren. Standardmäßig verbindet sich Ollama jedoch nicht mit externen KI-Cloud-Services. Ein Online-Zugriff kann nur entstehen, wenn Nutzer selbst Drittanbieter-Integrationen konfigurieren.

Unterstützung für GPU-Beschleunigung

Ollama nutzt automatisch Ihre Grafikkarte (sofern unterstützt), um die Leistung erheblich zu steigern.

Vorteile und Nachteile von Ollama

Vorteile Nachteile
Hohe Datensicherheit im Offline-Betrieb

Mit aktiviertem Airplane Mode bzw. Firewall-Sperre erfolgt die Verarbeitung ausschließlich lokal.

Hardware-Anforderungen

Leistungsstarke Hardware (v. a. viel RAM und eine gute GPU) ist für größere Modelle essentiell.

Kostenfrei

Keine API-Gebühren oder Abo-Modelle.

Datenschutzrisiko bei externen Integrationen

Falls der Offline-Modus nicht aktiv ist oder Nutzer selbst Online-Plugins anbinden, können Daten externe Systeme erreichen.

Vollständige Offline-Fähigkeit

Nutzung unabhängig von einer Internetverbindung.

Begrenzte Leistung

Selbst die besten lokalen Modelle hinken den größten Cloud-Modellen (wie GPT-4) noch hinterher.

Einfache Installation und Verwaltung

einer ganzen Palette von KI-Modellen.

Selbstverwaltung

Updates, Downloads und Speicherplatz müssen eigenständig organisiert werden.

Ideal für Entwickler

Perfekte Sandbox zum Experimentieren und Integrieren in eigene Projekte.

Technische Hürde

Die Bedienung über die Kommandozeile kann für absolute Anfänger abschreckend wirken.

Fazit

Ollama ist ein Game-Changer für alle, die KI jenseits der großen Cloud-Anbieter erleben möchten. Es demokratisiert den Zugang zu modernster KI-Technologie und bringt sie direkt auf den heimischen Rechner.

Der entscheidende Vorteil liegt in der Kontrolle. Im Offline-Betrieb werden Daten ausschließlich lokal verarbeitet, was nach aktuellem Stand für hohe Datensicherheit und Privatsphäre sorgt.

Allerdings liegt die Verantwortung beim Nutzer. Nur wenn der Airplane Mode aktiv ist oder der Internetzugriff blockiert wurde, ist ein vollständig lokaler Betrieb gewährleistet. Im Online-Betrieb oder durch externe Integrationen können Anfragen an andere Systeme gelangen.

Für Entwickler, Tech-Enthusiasten und alle, die Wert auf lokale und kontrollierte KI-Lösungen legen, ist Ollama daher eine absolute Empfehlung – vorausgesetzt, die Hardware-Anforderungen sind erfüllt.

👉 Probieren Sie es selbst aus: Ollama herunterladen und installieren

Disclaimer

Dieser Artikel dient ausschließlich allgemeinen Informationszwecken und stellt keine Rechtsberatung dar. Trotz sorgfältiger Prüfung können sich technische Funktionen und rechtliche Rahmenbedingungen ändern. Wenn Sie KI-Systeme im geschäftlichen oder datenschutzrelevanten Umfeld einsetzen möchten, lassen Sie sich bei Bedarf von einem Fachanwalt für IT- oder Datenschutzrecht beraten.

GITEX 2025 in Dubai: Die KI beginnt Ökosystem zu werden

Die Luft in Dubai ist im Oktober immer noch warm, aber die eigentliche Hitze entsteht in den Hallen des Dubai World Trade Centre. Nach dem großen Event des östlichen Wirtschaftsforums in Wladiwostok folgt nun die GITEX Global. Einst war dies eine reine IT-Handelsmesse, nun hat sie sich längst zum Zentrum der globalen digitalen Transformation geändert. Längst finden solchen Messen nicht mehr in der verfallenden, militarisierten EU statt. Für mich stellt die GITEX den lebendigen Zeitgeist der vierten industriellen Revolution dar; als Technologe ist sie das größte Labor der Welt, in dem Zukunft nicht ausgestellt, sondern live codiert wird. Das diesjährige Thema der GITEX 2025 ist „The Year of AI Transforming Humanity“. Dabei ist dies weniger eine Prognose als eine schlichte Feststellung.


Bilder von letzten Jahr

In diesem Jahr zeichnet sich eine fundamentale Verschiebung ab: Künstliche Intelligenz ist nicht länger nur ein Themenbereich unter Anderem sein. Sie ist das fundamentale Betriebssystem der gesamten Messe, das alle anderen Technologien durchdringt, antreibt und transformiert. Die KI ist der neue Strom, und jeder Aussteller, ob aus der Cloud-Branche, der Cybersicherheit, der Kommunikation oder der Mobilität, präsentiert seine Anwendungen als Leuchttürme.

Die zentralen Themenbereiche der GITEX Global 2025

Um das riesige Spektrum zu strukturieren, lassen sich die Keynote-Themen in folgende Cluster unterteilen:

Künstliche Intelligenz & Generative KI

Das übergeordnete Meta-Thema. Hier geht es um die neuesten Foundation Models, Agenten-basierte KI, Multimodale Systeme (Text, Bild, Ton, Video) und die konkrete Implementierung in Unternehmen.

Cloud & Edge Computing

Die physische Infrastruktur der KI-Revolution. Schwerpunkt liegt auf „AI-as-a-Service“, hybriden Cloud-Modellen für KI-Workloads und der kritischen Rolle von Edge Computing für Echtzeit-KI (z.B. in autonomen Fahrzeugen oder smarten Fabriken).

Cybersecurity & Digital Trust

Die unverzichtbare Gegenbewegung. Mit der Macht der KI wachsen auch die Bedrohungen. Dieses Segment fokussiert sich auf „AI-powered Threat Detection“, generative KI für Verteidigungs-Systeme (Autonomous Security Operations Center) und vor allem auf Ethik, Governance und Erklärende KI (XAI).

Web3 & Future of Finance

Die Konvergenz von Blockchain, Tokenisierung und KI steht im Mittelpunkt. Wie kann KI smarte Verträge auditieren, dezentralisierte Finanzströme analysieren oder personalisierte NFTs generieren?

Digital Cities & Urban Mobility

Die Anwendungsebene für den urbanen Raum. Hier treffen sich Smart-City-Lösungen, die von KI-gesteuerten Verkehrsflüssen, vorausschauender Wartung der Infrastruktur und integrierter, nachhaltiger Mobilität.

Healthtech & Biotech

Ein beschleunigter Wachstumsmarkt. Gezeigt werden KI-gestützte Diagnostik, personalisierte Medizin durch Genom-Analyse, und Robotik in der Pflege und Chirurgie.

Nachhaltige Technologie & ökologische KI

Dies ist eine essenzielle Querschnittsdisziplin. Es geht nicht mehr nur darum, was KI kann, sondern auch um ihren ökologischen Fußabdruck beim Ressourcenverbrauch. Themen sind energieeffizientes Training von Modellen, KI zur Optimierung von Energienetzen und für die Kreislaufwirtschaft.

Fokus: KI und IT – Die Symbiose, die alles verändert

Während die oben genannten Themenbereiche die Anwendungsfelder abstecken, ist die eigentliche Revolution in der zugrundeliegenden IT-Architektur zu beobachten. Drei Trends stechen hier besonders hervor:

  1. Vom Cloud-Zeitalter zum AI-Native-Zeitalter
    Die IT-Infrastruktur wird nicht mehr einfach nur „cloud-first“ designed, sondern „KI-native“. Das bedeutet, dass Rechenzentren, Netzwerke und Speichersysteme von Grund auf für die enorm parallelen und datenintensiven Workloads des KI-Trainings und -Inference konzipiert sind.Auf der GITEX werden Chiphersteller die nächste Generation von KI-Beschleunigern (GPUs, TPUs, NPUs) vorstellen, die nicht mehr nur in der Cloud, sondern auch in Laptops und Smartphones verbaut werden. Die IT-Konvergenz von Cloud, Edge und Device für eine nahtlose KI-Experience ist das neue Paradigma.
  2. Generative AI wird betriebswirtschaftlich: Der Fokus shiftet von „Wow“ zu „ROI“
    2023 war das Jahr des generativen Prototyps („Schreib mir ein Gedicht“). 2024 das Jahr der Pilotprojekte. 2025 wird das Jahr der Skalierung und Integration. Auf der Messe werden unzählige Use Cases gezeigt, die messbaren wirtschaftlichen Mehrwert liefern:
  • KI-Copilots für jede Software: Von SAP über Salesforce bis zu Microsoft Office – jede Enterprise-Anwendung hat nun einen intelligenten Assistenten integriert, der Prozesse automatisiert, Daten analysiert und Berichte generiert.

  • Generatives Design & Engineering: KI entwirft nicht nur Marketing-Texte, sondern auch physische Produkte, Schaltkreise oder architektonische Pläne, optimiert für Gewicht, Kosten und Nachhaltigkeit.

  • Hyper-Personalization im E-Commerce: KI-generierte individuelle Produktvideos, Beschreibungen und Angebote in Echtzeit für jeden einzelnen Website-Besucher.

  • Die große Gretchenfrage: KI Governance & Souveräne KI
    Der wirtschaftlich vielleicht wichtigste Trend ist der Aufstieg von „Sovereign KI“. Nationen und große Unternehmen wollen nicht länger von den KI-Modellen und Cloud-Infrastrukturen US-amerikanischer oder chinesischer Tech-Giganten abhängig sein. Auf der GITEX, einem strategischen Knotenpunkt zwischen Ost und West, werden zahlreiche Länder und Regionen ihre Pläne für eigene, souveräne KI-Ökosysteme präsentieren. Dazu gehören:

    • Lokalisierte Large Language Models (LLMs), die in lokalen Sprachen trainiert sind und kulturelle Nuancen verstehen.

    • Nationale Cloud-Initiativen mit strengen Data-Residency-Gesetzen.

    • Frameworks für KI Governance, die Compliance, Transparenz und ethischen Umgang sicherstellen sollen.

Fazit: 

Die GITEX 2025 wird atemberaubende Technologien zeigen. Doch die wichtigsten Fragen, die in den Keynotes und Roundtables diskutiert werden, sind nicht technischer, sondern humanistischer Natur:

  • Wie gestalten wir eine KI, die uns dient und nicht ersetzt?
  • Wie bilden wir Arbeitnehmer für diese neue Welt aus (ein Feld, bekannt als „Upskilling“ und „Reskilling“)?
  • Und wie gewährleisten wir, dass der Wohlstand, den diese Technologien generieren, auch fair verteilt wird?

Die Botschaft der Messe ist klar: Die transformative Kraft der KI ist real und unaufhaltsam. Sie ist das mächtigste Wirtschaftsgut unserer Zeit. Die Aufgabe für Unternehmen, Regierungen und uns als Gesellschaft ist es nun, sie mit Weitsicht, Verantwortung und einem klaren Kompass für menschliche Werte zu gestalten. Die GITEX 2025 vom 13. bis 17. Oktober 2025 in Dubai ist der Ort, wo wir sehen, ob wir den notwendigen Aufgaben gewachsen sind.

UAE AI Camp – Siebte Edition ist zu Ende

KI Camp 2025; Vereinigte Arabische Emirate

Das UAE Artificial Intelligence Camp (7. Edition) ist beendet. Organisiert vom National Programme for Artificial Intelligence in Zusammenarbeit mit dem National Programme for Coders, schloss das Camp am 19. August 2025 in Dubai ab.

Von Mitte Juli bis Mitte August bot es über 70 Wissens- und Interaktionsformate – darunter 9 virtuelle Workshops – sowie Hackathons, Challenges und Vorträge. Die Programme richteten sich an Kinder, Studierende, Young Professionals und Experten und deckten sieben Themenfelder ab:

  • Zukunft der KI
  • Data Science & Machine Learning
  • smarte Anwendungen in Bildung, Gesundheit und Finanzen
  • Web- und Robotik-Entwicklung
  • KI-Governance & Ethik
  • Cybersicherheit
  • Virtual & Augmented Reality

Quelle: Emirates News Agency (WAM): „UAE AI Camp concludes seventh edition with over 70 diverse workshops“, 19. August 2025. Zum Artikel

KI-Kompetenz in Unternehmen nachhaltig aufbauen

Unternehmen stehen vor der Aufgabe, das Potenzial Künstlicher Intelligenz (KI) zu heben und zugleich Vertrauen in ihrer Organisation aufzubauen. Der Schlüssel dazu ist ein systematischer Kompetenzaufbau: Eine realistische KI-Readiness-Bewertung deckt Lücken auf, priorisiert Maßnahmen und lenkt Ressourcen dorthin, wo sie die größte Wirkung entfalten.

Ganzheitliche KI-Kompetenz umfasst weit mehr als Technologie-Stacks. Es geht um eine datengetriebene Kultur, robuste Prozesse und Mitarbeitende, die KI-Werkzeuge souverän einsetzen – von klassischen ML-Verfahren bis zu großen Sprachmodellen. Neue Studienergebnisse zeigen zugleich ausgeprägte Länder- und Branchenunterschiede in der Zuversicht, KI erfolgreich zu nutzen.

So liegt die Zustimmung in der Schweiz bei 58 %, in Italien bei 52 %, während Deutschland mit 34 % und Österreich mit 37 % skeptischer bleiben. Branchenspezifisch sind Private Equity (71 %), Finanzdienstleistungen (66 %), sowie Energie und fortschrittliche Fertigung & Mobilität (je 62 %) besonders zuversichtlich. Zudem priorisieren Mitarbeitende bei KI-Investitionen vor allem neue Software (35 %) und Qualifizierung (33 %), während Prognose-fähigkeiten überraschend weit hinten rangieren.

Shop mit KI und Computer

Damit KI vom Pilot zum Produktivitätshebel wird, empfiehlt sich ein mehrgleisiger Ansatz:

  • Readiness-Analyse & Zielbild: Ausgangslage, Reifegrad und Use-Case-Portfolio klar bestimmen.
  • Governance & Risiko: Leitplanken für Datenschutz, Sicherheit, Fairness und Nachvollziehbarkeit etablieren.
  • Qualifizierung: Rollenbasiertes Upskilling (Fachbereiche, IT, Compliance) mit Praxisbezug verankern.
  • Technik & Daten: Skalierbare Plattformen, saubere Datenpipelines und Metriken für Nutzen & Qualität.
  • Wertnachweis: Messbare KPIs (Zeitgewinn, Qualität, Risiko, Umsatz) und kontinuierliche Verbesserung.

Unternehmen, die Kompetenzen strukturiert aufbauen, beschleunigen Innovation, reduzieren Risiken und schaffen nachhaltige Werte. Entscheidend ist, KI als Organisationsfähigkeit zu begreifen – nicht als Einzelprojekt. So wächst die Akzeptanz im Team und erfolgreiche Lösungen lassen sich reproduzierbar in die Fläche bringen.

Unterstützung gefällig? Die Informationsdienst Högerl begleitet Sie von der Readiness-Analyse über die Strategie bis zur Implementierung praxistauglicher KI-Lösungen – inklusive Governance, Schulung und Wertmessung. Kontakt: hoegerl@pm.me.


Quelle: Susanne Zach: „KI-Kompetenz in Unternehmen: Vertrauen aufbauen und neue Technologien nutzen“, EY Insights, 12. Juli 2024. https://www.ey.com/de_at/insights/ai/kuenstliche-intelligenz-kompetenz-unternehmen

KI-Steuerung von Computern und IoT-Geräten: Von Grundlagen bis zur technischen Umsetzung

Teil 1: Grundlagen für Einsteiger

Was bedeutet KI-Steuerung?

Künstliche Intelligenz (KI) zur Steuerung von Computern und IoT-Geräten bezeichnet die Fähigkeit intelligenter Systeme, elektronische Geräte automatisch zu bedienen und zu kontrollieren. Stellen Sie sich vor, Ihr Computer könnte selbstständig Programme öffnen, E-Mails verfassen oder Dateien organisieren – genau das ermöglicht KI-Steuerung.

Bei IoT-Geräten (Internet of Things) geht es um vernetzte Alltagsgegenstände wie intelligente Glühbirnen, Thermostate, Sicherheitskameras oder Sprachassistenten. KI kann diese Geräte nicht nur einzeln steuern, sondern sie auch intelligent miteinander vernetzen und koordinieren.

Warum ist das wichtig?

Die KI-Steuerung bringt drei wesentliche Vorteile mit sich:

Automatisierung alltäglicher Aufgaben: Repetitive und zeitraubende Tätigkeiten können vollständig automatisiert werden. Ein KI-System kann beispielsweise täglich E-Mails sortieren, Termine planen oder Berichte erstellen, ohne dass ein Mensch eingreifen muss.

Intelligente Entscheidungsfindung: Moderne KI-Systeme können Muster erkennen und darauf basierend Entscheidungen treffen. Ein intelligentes Heizsystem lernt etwa die Gewohnheiten der Bewohner und passt die Temperatur entsprechend an, bevor sie überhaupt nach Hause kommen.

Nahtlose Geräteintegration: Verschiedene Geräte können miteinander kommunizieren und koordiniert arbeiten. Wenn das Smartphone erkennt, dass Sie sich Ihrem Zuhause nähern, kann es automatisch die Beleuchtung einschalten, die Alarmanlage deaktivieren und die Musik starten.

Praktische Anwendungsbeispiele

Im Smart Home Bereich zeigt sich das Potenzial besonders deutlich. Eine KI kann lernen, wann Sie normalerweise aufstehen, und bereits 15 Minuten vorher die Kaffeemaschine starten, die Rollläden hochfahren und die Heizung aktivieren. Gleichzeitig analysiert sie Wetterdaten und schlägt passende Kleidung vor oder warnt vor Stau auf dem Arbeitsweg.

In Büroumgebungen können KI-Assistenten Kalendermanagement übernehmen, automatisch Meetings planen, Dokumente nach Priorität sortieren und sogar einfache Präsentationen erstellen. Dabei lernen sie kontinuierlich die Arbeitsweise und Präferenzen des Nutzers kennen.

Teil 2: Technische Implementierung für IT-Versierte

Architektur und Systemkomponenten

Die technische Umsetzung der KI-Steuerung basiert auf einer mehrschichtigen Architektur. Die Perception Layer erfasst Daten über verschiedene Sensoren und APIs. Machine Learning Modelle, typischerweise neuronale Netzwerke oder Entscheidungsbäume, verarbeiten diese Informationen in der Processing Layer. Die Action Layer führt schließlich die entsprechenden Befehle aus.

Moderne Implementierungen nutzen häufig Edge Computing, um Latenzzeiten zu minimieren und die Privatsphäre zu gewährleisten. Lokale KI-Chips wie der Google Coral TPU oder Intel Neural Compute Stick ermöglichen die Verarbeitung direkt auf dem Gerät, ohne dass Daten in die Cloud übertragen werden müssen.

Kommunikationsprotokolle und Standards

Die Gerätesteuerung erfolgt über etablierte Protokolle wie MQTT für IoT-Kommunikation, REST APIs für Webservices und WebSockets für Echtzeitverbindungen. Bei der Computersteuerung kommen plattformspezifische APIs zum Einsatz: Win32 API und PowerShell unter Windows, AppleScript und Automator unter macOS sowie D-Bus und Shell-Scripting unter Linux.

Für die geräteübergreifende Kommunikation haben sich Standards wie Matter durchgesetzt, der eine einheitliche Kommunikation zwischen verschiedenen Smart Home Ökosystemen ermöglicht. Thread und Zigbee 3.0 bieten dabei die notwendige Mesh-Netzwerk-Infrastruktur für zuverlässige, energieeffiziente Übertragungen.

Machine Learning Ansätze

Reinforcement Learning erweist sich als besonders effektiv für Steuerungsaufgaben. Algorithmen wie Deep Q-Networks (DQN) oder Proximal Policy Optimization (PPO) lernen optimale Aktionssequenzen durch Trial-and-Error-Verfahren. Ein RL-Agent kann beispielsweise lernen, ein komplexes Smart Home System zu optimieren, indem er Belohnungen für energieeffiziente Entscheidungen oder Nutzerzufriedenheit erhält.

Natural Language Processing ermöglicht sprachbasierte Steuerung. Moderne Transformer-Modelle wie GPT oder BERT können natürliche Befehle in strukturierte API-Aufrufe übersetzen. Intent Recognition und Entity Extraction identifizieren dabei die gewünschte Aktion und die betroffenen Geräte.

Computer Vision erweitert die Möglichkeiten um bildbasierte Steuerung. Convolutional Neural Networks können Bildschirminhalte analysieren und entsprechende Aktionen ableiten. OpenCV und TensorFlow bieten hierfür umfangreiche Bibliotheken zur Bildverarbeitung und Objekterkennung.

Sicherheitsaspekte und Herausforderungen

Die Implementierung robuster Sicherheitsmechanismen ist kritisch. Zero-Trust-Architektur sollte implementiert werden, bei der jede Komponente authentifiziert und autorisiert wird. TLS 1.3 verschlüsselt die Kommunikation, während OAuth 2.0 und JWT-Token eine sichere Authentifizierung gewährleisten.

Anomalie-Erkennung durch unbeaufsichtigtes Lernen kann ungewöhnliches Verhalten identifizieren und potenzielle Sicherheitsbedrohungen erkennen. Isolations-Sandboxen begrenzen die Auswirkungen kompromittierter KI-Systeme.

Eine besondere Herausforderung stellt die Explainable AI (XAI) dar. Bei kritischen Steuerungsaufgaben müssen KI-Entscheidungen nachvollziehbar sein. Techniken wie LIME oder SHAP können dabei helfen, die Entscheidungslogik transparenter zu gestalten.

Zukunftsausblick und Entwicklungstrends

Die Integration von Large Language Models wie GPT-5, DeepSeek oder Claude ermöglicht eine natürlichere Mensch-Computer-Interaktion. Multimodale KI kombiniert Text, Sprache, Bilder und Sensordaten für kontextbewusstere Entscheidungen.

Geschütztes Lernen erlaubt es, KI-Modelle zu trainieren, ohne sensible Daten preiszugeben. Jedes Gerät trainiert lokal und teilt nur Modell-Updates, nicht die Rohdaten. Dies ist besonders relevant für den Datenschutz in Smart Home Umgebungen.

Die Entwicklung hin zu Neuromorphic Computing und Quanten Machine Learning verspricht deutlich effizientere und mächtigere KI-Steuerungssysteme. Chips wie der Intel Loihi simulieren die Funktionsweise des menschlichen Gehirns und könnten die Energieeffizienz um Größenordnungen verbessern.

Fazit

Die KI-gesteuerte Kontrolle von Computern und IoT-Geräten steht noch am Anfang ihres Potenzials. Während die grundlegenden Technologien bereits verfügbar sind, erfordern robuste, skalierbare Implementierungen sorgfältige Planung und Berücksichtigung von Sicherheits- und Datenschutzaspekten. Die kontinuierliche Entwicklung in den Bereichen Machine Learning, Edge Computing und Kommunikationsstandards wird diese Technologie in den kommenden Jahren deutlich zugänglicher und leistungsfähiger machen.

Online-Vortrag: Internet of Things (IoT) entdecken – VHS Regensburger Land

Internet of Things Online Vortrag am 03.05.2025 um 16:00

Die Volkshochschule Regensburger Land lädt am Samstag, den 3. Mai 2025, von 16:00 bis 16:45 Uhr zu einem spannenden und kostenlosen Online-Vortrag über das Internet of Things (IoT) ein.

Die Veranstaltung richtet sich an Technikbegeisterte, Bastler, Programmierer, sowie alle die erste Schritte mit Mikrocontrollern wie dem ESP32 oder Arduino UNO wagen möchten. Besonders für Einsteiger bietet dieser Vortrag einen leicht verständlichen und praxisnahen Einstieg in die Welt der IoT-Technologien.

Der erfahrene Referent Karl Högerl präsentiert live den Einsatz von drei Arduino-Geräten, sowie einem ESP32-Modul mit Kamerafunktion. Die Teilnehmer erhalten einen Einblick, wie IoT-Komponenten kommunizieren, Daten austauschen und sich sinnvoll für kreative Lösungen im Alltag einsetzen lassen – vom Smart Home bis zur Umwelterfassung.

Die Veranstaltung findet online über Zoom statt. Der Zugangslink wird allen angemeldeten Teilnehmer spätestens am Veranstaltungstag per E-Mail zugeschickt. Eine vorherige Anmeldung über die Website der VHS ist erforderlich – die Teilnahme ist kostenfrei.

Jetzt kostenlos teilnehmen und die Welt des IoT entdecken!

🔗 Zur Anmeldung auf der Website der VHS Regensburger Land

Frohe Weihnachten und ein erfolgreiches Jahr 2025

Weihnachtsbaum mit Krippe

Frohe Weihnachten und ein glückliches neues Jahr! 🎄✨

Liebe Leserinnen und Leser,

wieder neigt sich ein ereignisreiches Jahr dem Ende entgegen. Die Zeit der Besinnlichkeit und des Miteinanders lädt uns ein, innezuhalten, Dankbarkeit zu zeigen und neue Kraft für die kommenden Herausforderungen zu schöpfen.

Ich möchte mich an dieser Stelle herzlich bei euch bedanken – für euer Interesse, eure Treue und die vielen inspirierenden Momente, die ihr mir das ganze Jahr über geschenkt habt. Ihr seid der Grund, warum ich mit so viel Leidenschaft und Freude an meinem Blog arbeite!

Weihnachten – ein Fest der Liebe und Hoffnung

Lasst uns die Weihnachtszeit und das neue Jahr nutzen, um Zeit mit unseren Liebsten zu verbringen, die kleinen Freuden des Lebens zu genießen und neue Inspiration für das kommende Jahr zu finden. Ob bei einer gemütlichen Tasse Tee, dem Duft von frisch gebackenen Plätzchen oder dem warmen Licht des Weihnachtsbaumes – diese Momente schenken uns wertvolle Erinnerungen, die bleiben.

Ein Blick nach vorn – das Jahr 2025 erwartet uns

Das neue Jahr steht vor der Tür, und mit ihm neue Chancen, Ideen und Erlebnisse. Lasst uns gemeinsam mutig in die Zukunft blicken und mit Optimismus an unseren Zielen arbeiten.

Ich wünsche euch und euren Familien ein friedliches und frohes Weihnachtsfest sowie einen guten Rutsch in ein gesundes, glückliches und erfolgreiches neues Jahr.

Vielen Dank, dass ihr Teil meiner kleinen Blog-Gemeinschaft seid. Ich freue mich darauf, auch im nächsten Jahr wieder spannende Inhalte mit euch zu teilen und gemeinsam zu wachsen.

Herzliche Grüße,

Karl Högerl

Einführung in das Dualsystem

Das Dualsystem wird auch Binärsystem genannt. Es ist ein Zahlensystem, das nur die Ziffern 0 und 1 verwendet. Im Gegensatz zum dezimalen Zahlensystem, das auf Basis 10 aufgebaut ist und zehn Ziffern (0-9) nutzt, basiert das Dualsystem auf Basis 2. In der digitalen Welt spielt das Dualsystem eine zentrale Rolle, da Computer und elektronische Geräte Informationen in Form von binären Daten verarbeiten.

Grundlagen des Dualsystems

Im Dualsystem wird jede Position in einer Zahl mit einer Potenz von 2 multipliziert, anstatt mit einer Potenz von 10, wie im Dezimalsystem. Jede Stelle repräsentiert entweder den Wert 0 oder 1, und die Position der Stelle bestimmt, mit welcher Potenz von 2 sie multipliziert wird.

Beispiel der Umrechnung der binären Zahl 1011 in das Dezimalsystem

Um eine binäre Zahl wie 1011 in das Dezimalsystem umzuwandeln, multiplizieren wir jede Ziffer mit der entsprechenden Potenz von 2, von rechts nach links beginnend:

Dezimal 8 4 2 1
11 d entspricht 2⁰
1011 b 1 0 1 1

Zusammenaddiert ergibt das: (8 + 0 + 2 + 1 = 11 Dezimal).

Beispiel wie Computer das Dualsystem nutzen

Computer arbeiten mit elektrischen Signalen, die nur zwei Zustände annehmen können: Ein (1) und Aus (0). Diese beiden Zustände sind ideal für das Dualsystem, da nur die Ziffern 0 und 1 verwendet werden. Ein Bit ist die kleinste Informationseinheit und kann entweder den Wert 0 oder 1 annehmen. Jede Information, die ein Computer verarbeitet, wird in Form von Bits gespeichert und verarbeitet.

Beispiel der Speicherung des Buchstabens „A“

Computer speichern Textzeichen mithilfe von Codes wie dem ASCII-Code (American Standard Code for Information Interchange). Im ASCII-Code wird der Buchstabe „A“ durch die Dezimalzahl 65 dargestellt. Um diese Zahl zu speichern, konvertiert der Computer sie ins Binärsystem:

Der Buchstabe A ist 65 in Binärdarstellung

65 geteilt durch 2 ergibt 32 Rest 1 (niedrigste Binärstelle)
32 geteilt durch 2 ergibt 16 Rest 0
16 geteilt durch 2 ergibt 8 Rest 0
8 geteilt durch 2 ergibt 4 Rest 0
4 geteilt durch 2 ergibt 2 Rest 0
2 geteilt durch 2 ergibt 1 Rest 0
1 geteilt durch 2 ergibt 0 Rest 1 (höchste Binärstelle)

Diese Reihenfolge von Bits (1000001) entspricht dem Buchstaben „A“.

Mathematische Operationen im Dualsystem

Das Rechnen im Dualsystem ähnelt dem Rechnen im Dezimalsystem, mit dem Unterschied, dass alle Berechnungen auf Basis 2 erfolgen.

Fazit

Das Dualsystem ist die Basis der digitalen Technik und der Datenverarbeitung. Mit nur zwei Zuständen 0 und 1 lässt sich die gesamte digitale Kommunikation und Speicherung abbilden.

Das Dualsystem hat somit entscheidende Vorteile, die es zur idealen Grundlage für digitale Technologien machen. Es bietet eine einfache, robuste und fehlertolerante Basis für die Datenverarbeitung, die sich effizient speichern und verarbeiten lässt. Diese Eigenschaften machen das Dualsystem unersetzlich für die moderne digitale Datenverarbeitung und die Konstruktion von Computern.

Die Projektphasen bei PRINCE2 Projektmanagement

PRINCE2 wurde vom britischen Office of Government Commerce (OGC) entwickelt, um Projektmanagement-Methoden zu standardisieren und zu verbessern. Inzwischen ist PRINCE2 weltweit anerkannt und wird von vielen Organisationen angewendet. Seit 2013 wird die Weiterentwicklung von PRINCE2 vom AXELOS-Verlag durchgeführt, der auch andere Best-Practice-Methoden wie ITIL und RESILIA herausgibt. AXELOS arbeitet eng mit Experten und Praktikern aus der Projektmanagement-Community zusammen, um PRINCE2 kontinuierlich an die Bedürfnisse der Branche anzupassen und zu verbessern. Dazu gibt es Zertifizierungen.

Die Phasen von PRINCE2-Projekten lassen sich auch wie folgt beschreiben:

Vor dem Projekt

In dieser Phase wird eine Idee oder ein Bedarf für ein Projekt identifiziert und eine Vorstudie durchgeführt, um zu klären, ob das Projekt durchgeführt werden soll oder nicht. Es werden die Projektziele definiert, der Umfang abgegrenzt und erste Annahmen und Risiken erfasst. Auch werden erste Schritte unternommen, um die Finanzierung und die Ressourcen für das Projekt sicherzustellen.

Initiierungsphase

In dieser Phase werden die Planung und Organisation des Projekts detailliert ausgearbeitet. Der Projektleiter wird ernannt und die Projektorganisation wird aufgestellt. Es wird ein Projektplan erstellt, der die Ziele, die Meilensteine, die Abhängigkeiten, die Risiken, die Qualitätssicherungsmaßnahmen und den Business Case enthält. Ebenfalls wird ein Projektteam zusammengestellt und es werden Ressourcen und Budgets zugewiesen.

Lenkungs- und Steuerungsphase

In dieser Phase wird das Projektmanagement durchgeführt. Der Projektfortschritt wird überwacht, Abweichungen werden erkannt und korrigiert. Die Qualität des Projektergebnisses wird sichergestellt, indem die Qualitätssicherungsmaßnahmen umgesetzt und kontrolliert werden. Ebenfalls werden Risiken und Änderungen im Projektumfeld erkannt und behandelt. Der Projektstatus wird laufend dokumentiert und an die Stakeholder kommuniziert.

Produktlieferungsphase

In dieser Phase werden die Produkte, die im Projekt erstellt wurden, geliefert und getestet. Dabei wird überprüft, ob die Produkte den Anforderungen entsprechen und die Qualitätsstandards erfüllen. Die Produkte werden dokumentiert und an den Kunden oder Nutzer übergeben.

Jede Phase endet mit einer Bewertung, ob das Projekt im Sinne der Zielsetzung erfolgreich fortgesetzt werden kann oder ob es angepasst oder gar abgebrochen werden muss. Diese Überprüfungen und Bewertungen dienen dazu, die Planung und Steuerung des Projekts zu optimieren und somit einen effektiven und effizienten Projektablauf zu gewährleisten.

Das Ausnahmeprinzip

Ein weiterer wichtiger Punkt ist das Ausnahmeprinzip von PRINCE2. Es besagt, dass der Projektleiter befugt ist, Entscheidungen zu treffen und Handlungen durchzuführen, solange sie im Einklang mit dem Projektplan und den Projektzielen stehen. Nur bei Abweichungen oder Ausnahmen von diesem Plan muss der Projektleiter die höheren Managementebenen informieren und um Genehmigung bitten.

Fazit

PRINCE2 ist ein sehr ausgereifte und vielfältig einsetzbare Projektmanagementmethode. Sie wird in mehr als 150 Ländern der Erde eingesetzt. Es gibt die klassische Projektmanagement Variante PRINCE2 und die agile Variante PRINCE2 Agile.

Software Entwicklung mit dem agilen Manifest

Scrum basiert auf agile Methoden wird sehr häufig bei der Software Entwicklung eingesetzt. Agile Methoden der Software Entwicklung werden inzwischen häufig eingesetzt.

Ziele agiler Entwicklungsmethoden

  • Eine schlanke, flexible Softwareentwicklung ist umsetzbar
  • Abbau bürokratischer Hemmnisse
  • Regelbasierte Tätigkeiten in Rollen werden eingesetzt
  • Die Entwicklung, die Dokumentation und der Test sollen eine Einheit bilden
  • „Qualität ist die Erfüllung der Kundenanforderung“ – diese Qualität ist zu erreichen
  • Agile Entwicklung ist dort einzusetzen, wo es Vorteile bringt

Das agile Manifest

Dazu werden die beschriebenen Werte eingesetzt.

  • Individuen und Interaktionen mehr als Prozesse und Werkzeuge
  • Funktionierende Software mehr als umfassende Dokumentation
  • Zusammenarbeit mit dem Kunden mehr als Vertragsverhandlung
  • Reagieren auf Veränderung mehr als das Befolgen eines Plans

Das heißt, obwohl wir die Werte auf der rechten Seite wichtig finden, schätzen wir die Werte auf der linken Seite höher ein.

Entwickelt wurde diese Vorgehensweise von Kent Beck, Mike Beedle, Arie van Bennekum, Alistair Cockburn, Ward Cunningham, Martin Fowler, James Grenning, Jim Highsmith, Andrew Hunt, Ron Jeffries, Jon Kern, Brian Marick, Robert C. Martin, Steve Mellor, Ken Schwaber, Jeff Sutherland, Dave Thomas

Betriebswirtschaft: Welche Investitionsrechenverfahren gibt es?

Um die Investitionsziele zu beurteilen und die richtigen Entscheidungen zu treffen, braucht es eine Analyse der Investitionsalternativen. Dazu nutzt man Investitionsrechenverfahren. Die Analyse kann durch statische und dynamische Methoden durchgeführt werden.

Liste der Investitionsrechenverfahren

blankEs werden statische und dynamische Methoden unterschieden. Ausgehend von der Zielsetzung können sich die Amortisation, Rentabilität, Kosten oder der Gewinn verglichen werden.

Sollen künftige durch die Investition verursachte Zahlungseingänge mit einbezogen werden, so sind die dynamischen Modelle zu nutzen.

Die 10 Gebote der Netz Sicherheit

Immer mehr Nutzer bewegen sich täglich im Internet. Dort gibt es viele Informationen, aber auch wie in der realen Welt Datensammler, Kriminelle und Industriespionage.

blank

So gilt es die Privatsphäre zu wahren.

Wer Sicherheit der Freiheit vorzieht, bleibt zu Recht ein Sklave.
Aristoteles

So ist klar:  Mit dem gesunden Menschenverstand muss jeder abzuwägen, wie Freiheit und Sicherheit im richtigen Maß erhalten werden können.

Welche Bereiche umfasst die Netzsicherheit

  • Schutz vor Datenverlust
  • Sicherheit vor Fehlverhalten
  • Komprimitierung verhindern
  • Schutz bei Angriffen

Schritte zu grundlegender Sicherheit im Internet

Durch eine geeignete Planung kann der Kompromiss zwischen Freiheit und Sicherheit abgestimmt werden. Dazu gehört die Festlegung der Ziele und die Auswahl der geeigneten Maßnahmen. Für die Umsetzung und Betrieb werden Ressourcen gebraucht, die auch bereit gestellt müssen.  Änderungen dürfen nur Personen mit Know-How durchführen. Die  Folgen sind durch eine Risikoanalyse abzuschätzen.

Die 10 Gebote der Netzsicherheit

  1. Verantwortlichkeiten festlegen
  2. Einvernehmliche Regeln festlegen
  3. Genügend Ressourcen bereitstellen
  4. Die Nutzer stets einbeziehen
  5. Wichtige Prozesse und Abläufe definieren
  6. Regelmäßige Sicherung der Daten
  7. Einsatz von Firewall und Antiviren Programmen
  8. Verschlüsselung von wichtigen Internet Verbindungen und E-Mails
  9. Kritischer Umgang mit persönlichen Daten in sozialen Netzwerken und in der Cloud
  10. Die Handlungen des Menschen hinter den Computern sind das größte Risiko

Wie sagte bereits der ehemalige US Präsident Benjamin Franklin:

Jene, die grundlegende Freiheit aufgeben würden, um eine geringe vorübergehende Sicherheit zu erwerben, verdienen weder Freiheit noch Sicherheit.

Franklin und Aristoteles hatten eine Vorahnung. So sind Sklaverei, Unterdrückung und das Faustrecht des Stärkeren, damals wie heute in der NWO festgeschrieben. Dauerhafte Sicherheit gibt es auch heute nicht.

Ausbildungsbereiche bei IT Berufen nach AO 2017

In Bereich IT gibt es verschiedene Ausbildungsbereiche. Dabei gibt es Berufe mit mehr technischer Ausrichtung und mit mehr kaufmännischer Ausrichtung.

Die Ausbildungsordnung von 2017 gliedert diese in die Bereiche:

  • Fachinformatiker
    • Anwendungsentwicklung
    • Systemintegration
  • IT Systemelektroniker
  • IT Systemkaufmann/frau

Die Lehrinhalte werden in der Tabelle für die verschiedenen Berufe  nach Themengebieten angeordnet. Die Schwerpunkte werden je nach Unternehmen unterschiedich gesetzt.

Thema FI
System-integration
FI
Anwendungs-entw.
IT
System-elektron.
IT System-kaufmann
Math. u. techn. Grundlagen J J J T
Hardware T J J T
Netzwerk J J J T
Grundlagen
Betriebssysteme
J J J T
MS Windows J J J T
Linux J J J T
Grundlagen Programmierung J J J T
Algorithmen T J J N
Datenbanken / SQL J J T T
Webserver J T T N
Serverdienste im Internet J T T N
Datenformate J J T T
HTML / CSS T J T T
Javascript T J N N
PHP T J T N
Netzwerksicherheit J T J T
Datensicherheit / Datenschutz J J J J

Legende: J=Vollständig; T=Teilweise; N=In geringem Maße

4 Vorteile durch Weiterbildung in Europa

Wenn Sie neu in Deutschland sind und Ihre Kenntnisse in bestimmten Technologien aufbessern wollen. Wenn Sie kulturelle- und Management Kenntnisse benötigen, dann kann eine Weiterbildung Ihnen den nötigen Wissensvorsprung liefern.

Über 50 % der Beschäftigten in Deutschland nehmen jährlich an einer Weiterbildung teil, bei der meist der berufliche Bereich im Vordergrund steht. Gerade Akademiker bilden sich überdurchschnittlich weiter und das verschafft ihnen Vorteile im Berufsleben und bei der Karriere.

Die ABC Analyse in 4 Schritten durchführen

Die ABC-Analyse wird unter Anderem zur Planung, Kostenminimierung und Entscheidungsfindung eingesetzt wird. Die ABC Analyse wurde H. Ford Dickie erstmals beschrieben. Die Basis dafür bilden das Pareto Prinzip (die 80/20 Regel) und die Lorenz Kurve. Eingesetzt wird die ABC Analyse bei betriebswirtschaftlichen Analysen, Kosten, Lagerbeständen, Umsätzen, aber auch in der Personalwirtschaft und der Fertigung eingesetzt.

 

Daten der ABC-Analyse

Typ Umsatz in Mio. €
 Reifen  26,1
 Felgen  19,8
 Öl  35,6
 Zündkerzen  6,4
 Reinigungsmittel  16,9
 Lampen  2,9
 Autoradio  12,3
 KFZ-Ersatzteile  44,1
 Scheibenwischer  2,2
Gesamtsumme 166,3

 

Schritt 1 der ABC-Analyse

Ergänzen Sie die Tabelle um die Spalten Anteil in %Kumulierte % und Klasse.
Dann sortieren Sie absteigend den Umsatz in Mio. €.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1
Öl 35,6
Reifen 26,1
Felgen 19,8
Reinigungsmittel 16,9
Autoradio 12,3
Zündkerzen 6,4
Lampen 2,9
Scheibenwischer 2,2
Gesamtsumme 166,3

 

Schritt 2 der ABC Analyse

Als nächstes wird in der mittleren Spalte der prozentuale Anteil ausgerechnet.

Die Formel lautet: Anteil in % = Umsatz des Produkts/Gesamtsumme * 100

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52
Öl 35,6 21,41
Reifen 26,1 15,69
Felgen 19,8 11,91
Reinigungsmittel 16,9 10,16
Autoradio 12,3 7,40
Zündkerzen 6,4 3,85
Lampen 2,9 1,74
Scheibenwischer 2,2 1,32
Gesamtsumme 166,3

 

 Schritt 3 der ABC Analyse

Im weiteren Schritt werden die Anteile in % kumuliert (summiert) und in die Spalte Kumulierte % eingetragen.

Beispiel: Öl (kumulierte %) = 26,52 + 21,41 = 47,93; Reifen (kumulierte %) = 47,93 + 15,69 = 63,62

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52
Öl 35,6 21,41 47,93
Reifen 26,1 15,69 63,62
Felgen 19,8 11,91 75,53
Reinigungsmittel 16,9 10,16 85,69
Autoradio 12,3 7,40 93,08
Zündkerzen 6,4 3,85 96,93
Lampen 2,9 1,74 98,68
Scheibenwischer 2,2 1,32 100
Gesamtsumme 166,3

 

Schritt 4 der ABC Analyse

Im letzten Schritt werden die untersuchten Daten in drei Klassen eingeteilt. Die A Klasse bei meist 75% – 80%. Die B Klasse bei 15% – 20% und die C Klasse bei 5%. Die Summe der drei Klassen beträgt immer 100%.

Typ Umsatz in Mio. €
Anteil in % Kumulierte % Klasse
KFZ-Ersatzteile 44,1 26,52 26,52  A
Öl 35,6 21,41 47,93  A
Reifen 26,1 15,69 63,62  A
Felgen 19,8 11,91 75,53  B
Reinigungsmittel 16,9 10,16 85,69  B
Autoradio 12,3 7,40 93,08  B
Zündkerzen 6,4 3,85 96,93  C
Lampen 2,9 1,74 98,68  C
Scheibenwischer 2,2 1,32 100  C
Gesamtsumme 166,3

 

Fazit:

Mit Hilfe der ABC Analyse lassen sich

  • Schwerpunkte ermitteln
  • Prioritäten festlegen
  • Unwesentliches von Wesentlichen unterscheiden

Diese häufig eingesetzte Methode sollte in keinem “Werkzeugkasten” fehlen.

Barrierefreiheit