CCC Event 39C3 2025 – Power Cycles: Hacker, Gesellschaft und digitale Zukunft im Blick

Ende Dezember 2025 verwandelt sich Hamburg erneut in den zentralen Treffpunkt für Technik-, Netz- und Hackerkultur: Der 39. Chaos Communication Congress (39C3) des Chaos Computer Clubs (CCC) findet vom 27. bis 30. Dezember 2025 im Congress Centrum Hamburg (CCH) statt. Er lockt wieder Tausende Menschen aus der ganzen Welt an. Unter dem diesjährigen Motto „Power Cycles“ steht der Kongress ganz im Zeichen der Suche nach kreativen, nachhaltigen und kritischen Perspektiven auf Technologie, Gesellschaft, Macht und Verantwortung.

Zukunftskonferenz 39C3

Was ist der Chaos Communication Congress?

Der Chaos Communication Congress (CCC) ist eine der ältesten und bedeutendsten Veranstaltungen für Hacker, Netzpolitik, Sicherheitsforschung, Kunst und technikinteressierte Menschen weltweit. Seit der Gründung im Jahr 1984 hat sich der Kongress zu einer festen Institution entwickelt, die weit über klassische IT-Sicherheitsthemen hinausgeht. Es werden technologische Entwicklungen stets im Kontext von Gesellschaft, Politik und Kultur diskutiert.

Der Congress ist nicht nur eine Konferenz, sondern ein großes Gemeinschaftsprojekt: Er wird vollständig von Ehrenamtlichen organisiert und zeichnet sich durch Offenheit, Selbstorganisation und einen interaktiven Austausch zwischen Teilnehmenden aus. Alle Bereiche – von Vorträgen über Workshops bis hin zu freien Assemblies – werden von der Community mitgestaltet.

Motto „Power Cycles“ – Bedeutung und Fokus

Das Motto „Power Cycles“ spielt auf wiederkehrende Muster von Systemen an – wie sie funktionieren, zusammenbrechen, neu gedacht oder neu gestartet werden müssen. Es reflektiert die Idee, bestehende Strukturen zu hinterfragen und bewusst neu zu gestalten, statt sie einfach weiterlaufen zu lassen. Dabei geht es nicht allein um Technologie, sondern um Machtverhältnisse, Kontrolle, gesellschaftliche Teilhabe und Nachhaltigkeit.

Im Kontext der Tech-Welt wurden dabei auch aktuelle Spannungsfelder sichtbar: Zentralisierung, wachsende Abhängigkeiten, Sicherheitsrisiken und die Frage, wie offene, robuste und demokratische Alternativen entstehen können. Genau diese Mischung aus kritischer Analyse und konstruktiver Lösungsorientierung ist typisch für den CCC-Kongress.

Programm, Vorträge und Gemeinschaft

Der 39C3 bietet ein umfangreiches Programm mit zahlreichen Vorträgen, Workshops und Veranstaltungen in unterschiedlichen thematischen Tracks. Die Inhalte reichen von technischen Deep-Dives über gesellschaftspolitische Analysen, bis hin zu kreativen Projekten und künstlerischen Interventionen.

Ein zentrales Element des Congress ist das Engagement der Community vor Ort. Neben den offiziellen Bühnen fanden sich viele Assemblies und selbstorganisierte Sessions, in denen Teilnehmende eigene Projekte präsentieren, Erfahrungen austauschen oder gemeinsam an Ideen arbeiten. Besonders beliebt sind zudem kurze Impulsformate wie Lightning Talks, die technische Themen und gesellschaftliche Perspektiven in komprimierter Form zusammenbringen.

  • Vorträge: Technik, Sicherheit, Netzpolitik, Kultur und Forschung
  • Workshops: Hands-on-Formate zum Mitmachen und Lernen
  • Assemblies: Community-Treffpunkte, Projekte, Demos und Austausch
  • Vernetzung: Begegnungen zwischen Fachleuten, Kreativen und Interessierten

Gesellschaftliche Relevanz

Im Jahr 2025 zeigt der CCC-Kongress erneut, dass Technik mehr ist als nur Bits und Bytes: Sie ist eingebettet in Machtstrukturen, politische Entscheidungen und kulturelle Dynamiken. Themen wie digitale Freiheit, Überwachung, Künstliche Intelligenz, offene Software, digitale Unabhängigkeit und die Zukunft demokratischer Prozesse tauchten in vielen Beiträgen auf.

Der Congress bietet damit nicht nur Information, sondern auch Orientierung:

  • Wie kann man Systeme resilienter gestalten?
  • Wie bleibt Technologie überprüfbar?
  • Welche Rolle spielen Transparenz, Bildung und offene Standards?
  • Und wie lässt sich verhindern, dass technische Infrastrukturen gegen die Interessen der Gesellschaft wirken?

Fazit: Ein Kongress mit Strahlkraft

Der 39C3 2025 – Power Cycles zeigt einmal mehr, warum der Chaos Communication Congress als Herzstück der europäischen Hacker- und Netzbewegung gilt. Er bietet nicht nur ein vielseitiges Programm, sondern schafft einen Raum, in dem technische Expertise und gesellschaftliches Verantwortungsbewusstsein zusammenfinden. Die Veranstaltung ist ein Ausdruck gelebter Community, kritischen Denkens und kreativer Auseinandersetzung mit der digitalen Welt von morgen.

In einer Zeit, in der digitale Technologie unser Leben tiefgreifend prägt, bleibt der CCC-Kongress ein wichtiger Impulsgeber – nicht nur für Technikbegeisterte, sondern für alle, die eine offene, demokratische und nachhaltige digitale Zukunft mitgestalten wollen. Die Botschaft von „Power Cycles“ – Muster erkennen, bewerten und neu gestalten – hallt weit über den Jahreswechsel hinaus nach.

Quellen


Die Geschichte der Robotik in Deutschland – von der frühen Automatisierung zur vernetzten KI-Robotik

Die Robotik in Deutschland ist das Ergebnis einer über hundertjährigen technischen Evolution. Sie reicht von mechanischen Selbststeuerungen der frühen Industrialisierung über klassische Industrieroboter bis hin zu hochvernetzten, KI-gestützten Systemen, die durch IoT, Mikrocontroller, Single-Board-Computer (SBC) und moderne Sensorik geprägt sind.

Schematischer Aufbau Stationärer RoboterSchematischer Aufbau Roboter

Charakteristisch für den deutschen Weg ist die Verbindung aus Ingenieurtradition, industrieller Praxistauglichkeit, Sicherheitsdenken und systemischer Integration.

„Die Geschichte der Robotik in Deutschland – von der frühen Automatisierung zur vernetzten KI-Robotik“ weiterlesen

Netzneutralität im Fokus von Macht, Kontrolle und ökonomischen Interessen

Die wiederkehrenden Versuche, die Netzneutralität aufzuweichen oder vollständig abzuschaffen, erfolgen nicht zufällig. Sie werden maßgeblich von großen wirtschaftlichen Akteuren vorangetrieben, die sich davon strategische Vorteile versprechen. Dabei geht es weniger um technische Notwendigkeiten, sondern um Macht, Kontrolle und langfristige Abhängigkeiten.

Ökonomische Kontrolle statt technischer Effizienz

Große Plattformbetreiber und Telekommunikationskonzerne verfolgen ein gemeinsames Interesse: die Kontrolle über Zugangswege, Sichtbarkeit und Reichweite. Wird Netzneutralität abgeschafft, können Datenströme priorisiert, verlangsamt oder blockiert werden – abhängig von wirtschaftlichen Vereinbarungen.

Damit entsteht ein System, in dem nicht mehr Qualität, Innovation oder gesellschaftlicher Nutzen über den Erfolg eines Dienstes entscheiden, sondern finanzielle Ressourcen und vertragliche Machtpositionen.

Digitale Abhängigkeiten als Geschäftsmodell

Ohne Netzneutralität können sogenannte „Fast Lanes“ entstehen – bevorzugte Übertragungswege für zahlende Großkunden. Kleine Anbieter, unabhängige Medien, Start-ups oder zivilgesellschaftliche Projekte geraten strukturell ins Hintertreffen.

Langfristig führt dies zu digitalen Abhängigkeiten: Nutzer konsumieren bevorzugt die Inhalte, die technisch am schnellsten und stabilsten erreichbar sind. Vielfalt wird durch Vorselektion ersetzt, Wettbewerb durch Marktkonzentration.

Informationsmacht und indirekte Steuerung

Die Kontrolle über Datenflüsse bedeutet auch Kontrolle über Information. Wenn bestimmte Inhalte technisch bevorzugt oder benachteiligt werden können, entsteht eine subtile Form der Lenkung von Wahrnehmung, Meinungsbildung und gesellschaftlichem Diskurs.

Diese Steuerung erfolgt nicht offen, sondern über technische Parameter wie Latenz, Auflösung, Ladezeiten oder Verbindungsabbrüche. Für den Endnutzer bleibt die Ursache meist unsichtbar – die Wirkung jedoch real.

Vom offenen Internet zur regulierten Infrastruktur

Ein Internet ohne Netzneutralität entwickelt sich schrittweise von einem offenen Kommunikationsraum zu einer regulierten Infrastruktur, vergleichbar mit privaten Mautstraßen. Zugang, Qualität und Reichweite werden zur Ware.

In einem solchen System gewinnen diejenigen Akteure an Einfluss, die bereits über Kapital, Marktmacht und politische Lobbystrukturen verfügen. Die Kontrolle über technische Infrastruktur wird damit zu einem Instrument gesellschaftlicher Macht.

Folgen fehlender NetzneutralitätDigitalkunst – Folgen fehlender Netzneutralität

Fazit – Warum diese Entwicklung kritisch zu bewerten ist

Aus gesellschaftlicher Sicht steht hier mehr auf dem Spiel als reine Datenübertragung. Netzneutralität schützt nicht nur Innovation, sondern auch individuelle Selbstbestimmung, Informationsfreiheit und demokratische Teilhabe.

Ihre Abschaffung würde die Machtbalance im digitalen Raum dauerhaft zugunsten weniger globaler Akteure verschieben – mit direkten Auswirkungen auf Wirtschaft, Medien, Bildung und politische Meinungsbildung.

Weitere Quellen

Tim Wu – Begründer des Begriffs „Net Neutrality“

Columbia Law School

https://scholarship.law.columbia.edu/faculty_scholarship/1281/

Grundlegende Arbeiten zur Machtverschiebung durch kontrollierte Netze.

 

Electronic Frontier Foundation (EFF)

Detaillierte Analysen zu Zero-Rating & Fast Lanes

https://www.eff.org/issues/net-neutrality

Technische und gesellschaftliche Folgen fehlender Neutralität.

 

Harvard Kennedy School – Shorenstein Center

Information control & infrastructure power

Homepage

Zusammenhang zwischen Infrastrukturkontrolle und Meinungslenkung.

UN Special Rapporteur on Freedom of Expression

Internet access as a human right

https://www.ohchr.org/

Netzneutralität als Voraussetzung für Informationsfreiheit.


Minen im Roboter Betrieb – Wie KI den Bergbau neu erfindet

Der Bergbau gehört zu den ältesten und gefährlichsten Industrien der Welt. Über Jahrzehnte prägten körperlich harte Arbeit, Staub, Lärm und Unfälle den Alltag der Beschäftigten. Doch aktuell erleben wir einen tiefgreifenden Wandel: Roboterfahrzeuge, autonome Transportsysteme und künstliche Intelligenz (KI) übernehmen zunehmend Aufgaben, die früher von Menschen erledigt wurden.

Ein besonders eindrucksvolles Beispiel ist eine große Zementmine in der thailändischen Provinz Saraburi. Dort wurde in Kooperation zwischen der Siam Cement Group (SCG), der Chinesischen Akademie der Wissenschaften,
Technologieunternehmen wie Huawei und AIS sowie Fahrzeugherstellern wie Yutong ein vollständig KI-gestütztes Minensystem aufgebaut. Herzstück ist das in China entwickelte YUKON Parallel Mining Operating System, das autonome Elektro-Mining-Trucks, Energieverbrauch, Routenplanung und Sicherheitslogik zentral steuert.
Dieser Beitrag stellt das Konzept der „Minen im Roboter Betrieb“ vor, erklärt die dahinterliegende KI-Seidenstraße und beleuchtet Chancen und Risiken dieser Entwicklung.blank

Wie Roboter-Minen funktionieren

In klassischen Minen steuern menschliche Fahrer schwere Lkw auf festen Routen zwischen Abbaugebiet, Brecher und Lagerfläche. Die Produktivität hängt von Tagesform, Wetter, Schichtlängen und Sicherheitsvorschriften ab. Im Roboterbetrieb sieht das anders aus: Die Mine wird als integriertes cyber-physisches System verstanden.

Das YUKON-System verknüpft Sensoren, Kameras, Lidar, GPS und 5G-Kommunikation mit KI-Algorithmen für Planung und Steuerung. Autonome Mining-Trucks fahren selbstständig, erkennen Hindernisse, stimmen sich
untereinander ab und passen Geschwindigkeit und Fahrwege laufend an. Ein Leitstand überwacht den Gesamtablauf in Echtzeit – die menschliche Rolle wandelt sich vom Fahrer zum Operator.

Typische Bausteine einer Roboter-Mine sind:

  • Autonome Mining-Trucks (elektrisch oder hybrid) mit Sensorik und Onboard-KI
  • Zentraler Leitstand mit Datenwand, Live-Video und Telemetrie
  • Routen- und Taktoptimierung per KI-Planungsalgorithmen
  • Energie- und Batteriemanagement zur Minimierung des Verbrauchs
  • Automatisches Laden und Entladen durch abgestimmte Bagger- und Fördertechnik
  • 5G, sowie Industrie-Netze für niedrige Latenz und hohe Datenraten

In der thailändischen Pilot-Mine konnte durch dieses Zusammenspiel die operative Effizienz pro Schicht um rund 16 % gesteigert und der Energieverbrauch um etwa 20 % gesenkt werden, während gleichzeitig
deutlich weniger Personal direkt im Gefahrenbereich benötigt wird.

Die „KI-Seidenstraße“ – technologische Vernetzung statt nur Warenhandel

Der Begriff „KI-Seidenstraße“ wird zunehmend verwendet, um ein neues Muster globaler Kooperation zu beschreiben: Entlang der wirtschaftlichen Verflechtungen zwischen Asien, Europa, Afrika und dem Nahen Osten werden nicht mehr nur Waren und Infrastruktur exportiert, sondern auch KI-Systeme, Rechenkapazitäten und Algorithmen.

Im Fall der Roboter-Mine in Thailand bedeutet dies konkret: Chinesische Forschungseinrichtungen und Unternehmen liefern nicht nur Fahrzeuge und Software, sondern bringen ein komplettes digitales Betriebssystem für den Bergbau ein. Lokale Partner wie SCG stellen die Mine, regulatorisches Umfeld
und Betriebserfahrung bereit. Gemeinsam werden Sicherheitsstandards, Betriebsprozesse und Datenschnittstellen definiert. Aus einem reinen Lieferverhältnis wurde eine strategische Technologiepartnerschaft.

Die KI-Seidenstraße umfasst dabei weit mehr als Bergbau:

  • Smart Manufacturing und 5G-Produktionsstätten in Südostasien
  • Rechenzentren und Dateninfrastruktur entlang neuer Energie- und Handelsachsen
  • KI-Plattformen für Logistik, Smart Cities und Finanzdienstleistungen

Kritiker sehen darin auch ein geopolitisches Instrument: Wer die KI-Infrastruktur bereitstellt, beeinflusst Datensouveränität, Standards und langfristig auch wirtschaftliche Abhängigkeiten. Befürworter argumentieren dagegen, dass viele Länder ohne solche Kooperationen gar keinen Zugang zu moderner KI und Automatisierung hätten. Die Supermächte China, USA, Russland und Indien setzen auf solche Technologien.

Vorteile von Minen im Roboter Betrieb

Mehr Sicherheit für Menschen

Der offensichtlichste Vorteil ist die Arbeitssicherheit. Gefährliche Tätigkeiten, wie enge Fahrwege, Absturzgefahr, schlechte Sicht, Sprengarbeiten können stärker automatisiert oder vollständig roboterisiert werden. Menschen arbeiten im klimatisierten Leitstand statt in staubiger Umgebung. Das
Unfallrisiko sinkt deutlich, insbesondere bei Müdigkeit, Nachtbetrieb oder extremen Wetterlagen.

Höhere Effizienz und Planbarkeit

Autonome Fahrzeuge kennen keine Schichtwechsel, Raucherpausen oder Ermüdung. Sie fahren dauerhaft in einem optimierten Betriebsfenster. KI-gestützte Planung reduziert Leerfahrten und Wartezeiten, die gesamte Materiallogistik wird gleichmäßiger. Das führt zu höherem Durchsatz und
konstanterer Qualität.

Nachhaltigkeit und Energieeinsparung

Durch präzise Geschwindigkeitsprofile, vorausschauendes Fahren und optimierte Ladezyklen lässt sich der Energieverbrauch deutlich senken. In Kombination mit Elektro-Mining-Trucks entstehen so ökologisch besser nutzbare Minen, die weniger Emissionen pro Tonne Material verursachen.

Nachteile und Risiken

Hohe Einstiegsinvestitionen

Die Umstellung auf einen Roboterbetrieb ist teuer. Neben Fahrzeugen und Sensorik sind Leitstände, Funkinfrastruktur, Edge- und Cloud-Systeme sowie Integrationsleistungen nötig. Für kleinere Betreiber kann dies eine hohe Hürde darstellen, die sich nur bei langfristiger Nutzung und entsprechender Produktionsmenge rechnet.

Veränderung von Arbeitsplätzen

Klassische Fahrerrollen entfallen oder werden deutlich reduziert. Gleichzeitig entstehen neue Berufe, wie Leitstandsoperator, Systemingenieur oder Datenanalyst. Ohne Qualifizierungskonzepte besteht die Gefahr, dass Mitarbeiter abgehängt werden und soziale Spannungen entstehen.

Abhängigkeit von Technologieanbietern

Wer das Betriebssystem der Mine liefert, kontrolliert oft auch Softwareupdates, Sicherheits-Patches und Support. Werden solche Systeme von wenigen internationalen Anbietern beherrscht, entsteht eine technologische Abhängigkeit, die sich im Konfliktfall oder bei Lizenzänderungen negativ auswirken kann.

Fazit: Roboter-Minen als Blaupause für die Industrie der Zukunft

Die thailändische Pilotmine mit dem chinesischem YUKON-System steht exemplarisch für diese Entwicklung – sowohl technisch
als auch geopolitisch.

Die KI-Seidenstraße wird in den kommenden Jahren weiter an Bedeutung gewinnen:

Länder, die heute Infrastruktur und KI-Systeme beziehen, werden morgen Teil vernetzter Wertschöpfungsketten sein – mit allen Chancen und Abhängigkeiten, die damit einhergehen. Für Unternehmen, Politik und Gesellschaft bedeutet dies, Automatisierung nicht nur als Effizienzthema zu betrachten, sondern auch Fragen von Souveränität, Ethik und Qualifizierung frühzeitig mitzudenken.

Klar ist: Der Bergbau der Zukunft wird leiser, vernetzter und deutlich automatisierter sein. Ob diese Entwicklung am Ende mehr Gewinne, mehr Sicherheit und mehr Nachhaltigkeit bringt, hängt davon ab, wie verantwortungsvoll wir mit den neuen technologischen Möglichkeiten umgehen.

Quellen und weiterführende Links

  • Xinhua Silk Road: „Moving mountains: Chinese AI transforms a Thai mine with innovation“ –
    Artikel ansehen
  • SCG, AIS, Huawei, Yutong & Waytous: Kooperation für Thailands erste 5G+ Smart Green Mine –
    Pressemitteilung AIS,
    Cement News
  • Pixabay – lizenzfreie Mining-Bilder (z. B. „Mine Trolleys Dump“) –
    Bildseite
  • Unsplash – kostenlose Mining-Truck-Fotos –
    Übersicht
  • Hintergrund zur „AI / KI Silk Road“ und globalen KI-Kooperation:
    Analyse-Artikel

Der Mobilfunk-Einsatz im Vergleich: Heute versus 2030

Die mobile Vernetzung durchläuft in Deutschland eine radikale Transformation. Während wir heute die Einführung von 5G erleben, steht uns bis 2030 ein technologischer Quantensprung bevor, der unsere Kommunikation, Industrie und Gesellschaft neu definieren wird.

Heute: 5G als treibende Kraft mit Lücken

Aktuell basiert der deutsche Mobilfunk auf einem Mix aus 4G/LTE und dem ausgebauten 5G-Netz. Laut Bundesnetzagentur verfügten Ende 2023 bereits 92% der Haushalte über eine 5G-Versorgung. Die durchschnittliche Download-Geschwindigkeit liegt bei ca. 120 Mbit/s, mit Spitzenwerten bis 1 Gbit/s in Ballungsräumen.

Doch der Ausbau zeigt Lücken: In ländlichen Regionen existieren weiterhin weiße Flecken, und die versprochenen Echtzeitanwendungen stoßen an Grenzen. Die Latenzzeiten von 10-30 Millisekunden reichen für autonomes Fahren oder komplexe Industrie-4.0-Anwendungen nicht aus. Zudem verbrauchen die Netze viel Energie – allein die Rechenzentren der Telekommunikationsanbieter sind für etwa 2% des deutschen Stromverbrauchs verantwortlich.

Szenario 2030: 6G und die nahtlose Integration

Bis 2030 wird 6G den Markt erobern und eine völlig neue Ära einläuten. Statt reiner Geschwindigkeitssteigerung steht die Fusion von digitaler und physischer Welt im Fokus.

Aspekt Heute (5G) 2030 (6G Szenario)
Geschwindigkeit Bis 1 Gbit/s Bis 1 TeraBit/s (1000 Gbit/s)
Latenz 10-30 ms < 1 ms
Energieeffizienz Hoch (ca. 2% des Stromverbrauchs) 50% Reduktion trotz höherer Leistung
Schlüsseltechnologien Massive MIMO, Network Slicing Terahertz-Frequenzen, KI-Netzwerke, Quantenkommunikation

Für Fachinformatiker besonders relevant:

Anwendungen werden dezentral in Edge-Clouds laufen, während sich neue Berufsfelder im Quantum-Networking und KI-Netzwerkmanagement auftun. Die Integration von holografischer Kommunikation und digitalen Zwillingen erfordert völlig neue Architekturkonzepte.

Herausforderungen und Chancen

Der Weg zu 2030 ist jedoch steinig. Der flächendeckende Glasfaserausbau muss vorankommen, da 6G auf leistungsstarke Backbone-Netze angewiesen ist. Zudem gilt es, die Akzeptanz in der Bevölkerung für die neue Technologie zu gewinnen und datenschutzrechtliche Fragen zu klären.

Dennoch verspricht die Entwicklung enorme Vorteile: Eine intelligente Verkehrssteuerung könnte Staus reduzieren, Smart Grids die Energieversorgung optimieren und telemedizinische Anwendungen die Gesundheitsversorgung auf dem Land verbessern.

Fazit

Der Vergleich zeigt: Heute legt 5G das Fundament, doch erst 6G wird das volle Potenzial des Mobilfunks heben. Deutschland steht vor der Chance, durch eine vorausschauende Infrastrukturpolitik und innovative Anwendungen eine Vorreiterrolle in der nächsten Mobilfunk-Ära einzunehmen. Die Zukunft ist nicht nur schnell – sie ist intelligent, effizient und allgegenwärtig.


it-sa 2025: Europas Leitmesse für IT-Sicherheit in Nürnberg

Vom 7. bis 10. Oktober 2025 findet in der Messe Nürnberg die it-sa – IT Security Expo & Congress statt. Die it-sa gilt als eine der führenden Plattformen für Informationssicherheit in Europa und bringt Hersteller, Dienstleister, Anwender aus Unternehmen und Behörden sowie Forschung und Start-ups zusammen. Im Mittelpunkt stehen aktuelle Bedrohungslagen, Strategien zur Cyberresilienz und praxisnahe Lösungen für den Schutz von Daten, Systemen und Infrastrukturen.
Die Messe überzeugt durch thematische Breite und Tiefe: Von Cloud-, Netzwerk- und Anwendungssicherheit über Identitäts- und Zugriffsmanagement bis hin zu OT-/ICS-Security, Zero-Trust-Architekturen, KI-gestützter Erkennung und Compliance-Anforderungen. Aussteller präsentieren Produkte, Services, Schulungen und Beratungsangebote; Besucher erhalten einen schnellen Marktüberblick und fundierte Orientierung für konkrete Beschaffungs- und Umsetzungsentscheidungen.Ein Markenzeichen der it-sa ist die enge Verzahnung von Expo und Kongress:
In offenen Fachforen sowie im Programm Congress@it-sa werden produktneutrale Vorträge, Panels und Best-Practice-Sessions angeboten.
Damit adressiert die it-sa gleichermaßen technische und organisatorische Aspekte – von Hardening-Guidelines und DevSecOps-Pipelines bis zu Governance, Risk & Compliance Themen.
„it-sa 2025: Europas Leitmesse für IT-Sicherheit in Nürnberg“ weiterlesen

Connected World KSA – Die digitale Zukunft in Riad, Saudi Arabien

Am 18.–19. November 2025 wird das Riyadh Front Exhibition & Conference Center in Saudi Arabien zum Treffpunkt für Vordenker der globalen Konnektivitäts-, Cloud- und Rechenzentrumsbranche.

Ollama: Die KI für Ihren eigenen PC – Funktionsumfang, Vor- und Nachteile

Die Welt der Künstlichen Intelligenz (KI) scheint oft eine exklusive Domäne großer Tech-Konzerne zu sein, deren Server in fernen Rechenzentren stehen. Doch was, wenn Sie die neuesten KI-Modelle lokal auf Ihrem eigenen Computer ausführen könnten – ohne Internet, ohne Abo-Gebühren und mit hohem Datenschutz? Genau das ermöglicht Ollama.

Im professionellen Umfeld fahren immer mehr Unternehmen eine Doppelstrategie: Für allgemeine Anfragen und nicht-sensitive Daten werden leistungsstarke, im Internet verfügbare KI-Systeme eingesetzt.

Sobald es jedoch um die Verarbeitung von schutzbedürftigen Daten nach DSGVO, Geschäftsgeheimnissen oder personenbezogenen Informationen geht, kommen isolierte lokale KI-Systeme wie Ollama ins Spiel. Diese Strategie kombiniert die Stärken der Cloud mit der Sicherheit einer lokalen Lösung.

Was ist Ollama?

Ollama ist im Grunde ein Package Manager für große Sprachmodelle (LLMs). Stellen Sie es sich wie einen App Store vor, der speziell für KI-Modelle entwickelt wurde. Mit wenigen Befehlen in der Kommandozeile können Sie eine Vielzahl von Open-Source-Modellen wie Llama 3, DeepSeek, Mistral oder Gemma herunterladen, installieren und direkt auf Ihrer Hardware ausführen.

Ollama kümmert sich dabei um die gesamte komplexe Ablaufumgebung im Hintergrund und macht die Nutzung so erstaunlich einfach.

Funktionsumfang: Was kann Ollama?

Lokale Ausführung

Die KI-Modelle laufen vollständig auf Ihrer eigenen Hardware. Nach aktuellem Stand werden Ihre Anfragen im Offline-Betrieb ausschließlich lokal verarbeitet – ein wesentlicher Vorteil für Privatsphäre und Datenschutz.

Einfache Befehlszeilennutzung

Die Bedienung erfolgt primär über das Terminal. Ein Befehl wie ollama run llama3.2 startet sofort einen Chat mit dem Modell.

Umfangreiche Modellbibliothek

Ollama unterstützt Dutzende von State-of-the-Art-Modellen, die für verschiedene Zwecke optimiert sind (z. B. Coding, kreatives Schreiben oder Übersetzungen).

REST-API für Entwickler

Ollama stellt eine lokale API-Schnittstelle (http://localhost:11434) bereit. Dies ermöglicht die Integration in andere Tools wie:

Code-Editoren (z. B. VS Code mit der Continue-Erweiterung)

Alternative Benutzeroberflächen (z. B. Open WebUI)

Eigene Skripte und Anwendungen in Python, JavaScript etc.

Offline-Betrieb & Airplane Mode

Eine zentrale Funktion für den Datenschutz ist der Airplane Mode. In neueren Versionen lässt er sich direkt in den Ollama-Einstellungen aktivieren; in anderen Fällen sollte der Internetzugriff manuell, z. B. per Firewall, unterbunden werden. So wird sichergestellt, dass die Modelle vollständig lokal laufen und keine Daten an externe Server übertragen werden.

Hinweis zum „Turbo Mode“

Manche Nutzerberichte erwähnen eine Art „Turbo Mode“ oder die Möglichkeit, Ollama mit Online-Quellen zu kombinieren. Standardmäßig verbindet sich Ollama jedoch nicht mit externen KI-Cloud-Services. Ein Online-Zugriff kann nur entstehen, wenn Nutzer selbst Drittanbieter-Integrationen konfigurieren.

Unterstützung für GPU-Beschleunigung

Ollama nutzt automatisch Ihre Grafikkarte (sofern unterstützt), um die Leistung erheblich zu steigern.

Vorteile und Nachteile von Ollama

Vorteile Nachteile
Hohe Datensicherheit im Offline-Betrieb

Mit aktiviertem Airplane Mode bzw. Firewall-Sperre erfolgt die Verarbeitung ausschließlich lokal.

Hardware-Anforderungen

Leistungsstarke Hardware (v. a. viel RAM und eine gute GPU) ist für größere Modelle essentiell.

Kostenfrei

Keine API-Gebühren oder Abo-Modelle.

Datenschutzrisiko bei externen Integrationen

Falls der Offline-Modus nicht aktiv ist oder Nutzer selbst Online-Plugins anbinden, können Daten externe Systeme erreichen.

Vollständige Offline-Fähigkeit

Nutzung unabhängig von einer Internetverbindung.

Begrenzte Leistung

Selbst die besten lokalen Modelle hinken den größten Cloud-Modellen (wie GPT-4) noch hinterher.

Einfache Installation und Verwaltung

einer ganzen Palette von KI-Modellen.

Selbstverwaltung

Updates, Downloads und Speicherplatz müssen eigenständig organisiert werden.

Ideal für Entwickler

Perfekte Sandbox zum Experimentieren und Integrieren in eigene Projekte.

Technische Hürde

Die Bedienung über die Kommandozeile kann für absolute Anfänger abschreckend wirken.

Fazit

Ollama ist ein Game-Changer für alle, die KI jenseits der großen Cloud-Anbieter erleben möchten. Es demokratisiert den Zugang zu modernster KI-Technologie und bringt sie direkt auf den heimischen Rechner.

Der entscheidende Vorteil liegt in der Kontrolle. Im Offline-Betrieb werden Daten ausschließlich lokal verarbeitet, was nach aktuellem Stand für hohe Datensicherheit und Privatsphäre sorgt.

Allerdings liegt die Verantwortung beim Nutzer. Nur wenn der Airplane Mode aktiv ist oder der Internetzugriff blockiert wurde, ist ein vollständig lokaler Betrieb gewährleistet. Im Online-Betrieb oder durch externe Integrationen können Anfragen an andere Systeme gelangen.

Für Entwickler, Tech-Enthusiasten und alle, die Wert auf lokale und kontrollierte KI-Lösungen legen, ist Ollama daher eine absolute Empfehlung – vorausgesetzt, die Hardware-Anforderungen sind erfüllt.

👉 Probieren Sie es selbst aus: Ollama herunterladen und installieren

Disclaimer

Dieser Artikel dient ausschließlich allgemeinen Informationszwecken und stellt keine Rechtsberatung dar. Trotz sorgfältiger Prüfung können sich technische Funktionen und rechtliche Rahmenbedingungen ändern. Wenn Sie KI-Systeme im geschäftlichen oder datenschutzrelevanten Umfeld einsetzen möchten, lassen Sie sich bei Bedarf von einem Fachanwalt für IT- oder Datenschutzrecht beraten.

GITEX 2025 in Dubai: Die KI beginnt Ökosystem zu werden

Die Luft in Dubai ist im Oktober immer noch warm, aber die eigentliche Hitze entsteht in den Hallen des Dubai World Trade Centre. Nach dem großen Event des östlichen Wirtschaftsforums in Wladiwostok folgt nun die GITEX Global. Einst war dies eine reine IT-Handelsmesse, nun hat sie sich längst zum Zentrum der globalen digitalen Transformation geändert. Längst finden solchen Messen nicht mehr in der verfallenden, militarisierten EU statt. Für mich stellt die GITEX den lebendigen Zeitgeist der vierten industriellen Revolution dar; als Technologe ist sie das größte Labor der Welt, in dem Zukunft nicht ausgestellt, sondern live codiert wird. Das diesjährige Thema der GITEX 2025 ist „The Year of AI Transforming Humanity“. Dabei ist dies weniger eine Prognose als eine schlichte Feststellung.


Bilder von letzten Jahr

In diesem Jahr zeichnet sich eine fundamentale Verschiebung ab: Künstliche Intelligenz ist nicht länger nur ein Themenbereich unter Anderem sein. Sie ist das fundamentale Betriebssystem der gesamten Messe, das alle anderen Technologien durchdringt, antreibt und transformiert. Die KI ist der neue Strom, und jeder Aussteller, ob aus der Cloud-Branche, der Cybersicherheit, der Kommunikation oder der Mobilität, präsentiert seine Anwendungen als Leuchttürme.

Die zentralen Themenbereiche der GITEX Global 2025

Um das riesige Spektrum zu strukturieren, lassen sich die Keynote-Themen in folgende Cluster unterteilen:

Künstliche Intelligenz & Generative KI

Das übergeordnete Meta-Thema. Hier geht es um die neuesten Foundation Models, Agenten-basierte KI, Multimodale Systeme (Text, Bild, Ton, Video) und die konkrete Implementierung in Unternehmen.

Cloud & Edge Computing

Die physische Infrastruktur der KI-Revolution. Schwerpunkt liegt auf „AI-as-a-Service“, hybriden Cloud-Modellen für KI-Workloads und der kritischen Rolle von Edge Computing für Echtzeit-KI (z.B. in autonomen Fahrzeugen oder smarten Fabriken).

Cybersecurity & Digital Trust

Die unverzichtbare Gegenbewegung. Mit der Macht der KI wachsen auch die Bedrohungen. Dieses Segment fokussiert sich auf „AI-powered Threat Detection“, generative KI für Verteidigungs-Systeme (Autonomous Security Operations Center) und vor allem auf Ethik, Governance und Erklärende KI (XAI).

Web3 & Future of Finance

Die Konvergenz von Blockchain, Tokenisierung und KI steht im Mittelpunkt. Wie kann KI smarte Verträge auditieren, dezentralisierte Finanzströme analysieren oder personalisierte NFTs generieren?

Digital Cities & Urban Mobility

Die Anwendungsebene für den urbanen Raum. Hier treffen sich Smart-City-Lösungen, die von KI-gesteuerten Verkehrsflüssen, vorausschauender Wartung der Infrastruktur und integrierter, nachhaltiger Mobilität.

Healthtech & Biotech

Ein beschleunigter Wachstumsmarkt. Gezeigt werden KI-gestützte Diagnostik, personalisierte Medizin durch Genom-Analyse, und Robotik in der Pflege und Chirurgie.

Nachhaltige Technologie & ökologische KI

Dies ist eine essenzielle Querschnittsdisziplin. Es geht nicht mehr nur darum, was KI kann, sondern auch um ihren ökologischen Fußabdruck beim Ressourcenverbrauch. Themen sind energieeffizientes Training von Modellen, KI zur Optimierung von Energienetzen und für die Kreislaufwirtschaft.

Fokus: KI und IT – Die Symbiose, die alles verändert

Während die oben genannten Themenbereiche die Anwendungsfelder abstecken, ist die eigentliche Revolution in der zugrundeliegenden IT-Architektur zu beobachten. Drei Trends stechen hier besonders hervor:

  1. Vom Cloud-Zeitalter zum AI-Native-Zeitalter
    Die IT-Infrastruktur wird nicht mehr einfach nur „cloud-first“ designed, sondern „KI-native“. Das bedeutet, dass Rechenzentren, Netzwerke und Speichersysteme von Grund auf für die enorm parallelen und datenintensiven Workloads des KI-Trainings und -Inference konzipiert sind.Auf der GITEX werden Chiphersteller die nächste Generation von KI-Beschleunigern (GPUs, TPUs, NPUs) vorstellen, die nicht mehr nur in der Cloud, sondern auch in Laptops und Smartphones verbaut werden. Die IT-Konvergenz von Cloud, Edge und Device für eine nahtlose KI-Experience ist das neue Paradigma.
  2. Generative AI wird betriebswirtschaftlich: Der Fokus shiftet von „Wow“ zu „ROI“
    2023 war das Jahr des generativen Prototyps („Schreib mir ein Gedicht“). 2024 das Jahr der Pilotprojekte. 2025 wird das Jahr der Skalierung und Integration. Auf der Messe werden unzählige Use Cases gezeigt, die messbaren wirtschaftlichen Mehrwert liefern:
  • KI-Copilots für jede Software: Von SAP über Salesforce bis zu Microsoft Office – jede Enterprise-Anwendung hat nun einen intelligenten Assistenten integriert, der Prozesse automatisiert, Daten analysiert und Berichte generiert.

  • Generatives Design & Engineering: KI entwirft nicht nur Marketing-Texte, sondern auch physische Produkte, Schaltkreise oder architektonische Pläne, optimiert für Gewicht, Kosten und Nachhaltigkeit.

  • Hyper-Personalization im E-Commerce: KI-generierte individuelle Produktvideos, Beschreibungen und Angebote in Echtzeit für jeden einzelnen Website-Besucher.

  • Die große Gretchenfrage: KI Governance & Souveräne KI
    Der wirtschaftlich vielleicht wichtigste Trend ist der Aufstieg von „Sovereign KI“. Nationen und große Unternehmen wollen nicht länger von den KI-Modellen und Cloud-Infrastrukturen US-amerikanischer oder chinesischer Tech-Giganten abhängig sein. Auf der GITEX, einem strategischen Knotenpunkt zwischen Ost und West, werden zahlreiche Länder und Regionen ihre Pläne für eigene, souveräne KI-Ökosysteme präsentieren. Dazu gehören:

    • Lokalisierte Large Language Models (LLMs), die in lokalen Sprachen trainiert sind und kulturelle Nuancen verstehen.

    • Nationale Cloud-Initiativen mit strengen Data-Residency-Gesetzen.

    • Frameworks für KI Governance, die Compliance, Transparenz und ethischen Umgang sicherstellen sollen.

Fazit: 

Die GITEX 2025 wird atemberaubende Technologien zeigen. Doch die wichtigsten Fragen, die in den Keynotes und Roundtables diskutiert werden, sind nicht technischer, sondern humanistischer Natur:

  • Wie gestalten wir eine KI, die uns dient und nicht ersetzt?
  • Wie bilden wir Arbeitnehmer für diese neue Welt aus (ein Feld, bekannt als „Upskilling“ und „Reskilling“)?
  • Und wie gewährleisten wir, dass der Wohlstand, den diese Technologien generieren, auch fair verteilt wird?

Die Botschaft der Messe ist klar: Die transformative Kraft der KI ist real und unaufhaltsam. Sie ist das mächtigste Wirtschaftsgut unserer Zeit. Die Aufgabe für Unternehmen, Regierungen und uns als Gesellschaft ist es nun, sie mit Weitsicht, Verantwortung und einem klaren Kompass für menschliche Werte zu gestalten. Die GITEX 2025 vom 13. bis 17. Oktober 2025 in Dubai ist der Ort, wo wir sehen, ob wir den notwendigen Aufgaben gewachsen sind.

UAE AI Camp – Siebte Edition ist zu Ende

KI Camp 2025; Vereinigte Arabische Emirate

Das UAE Artificial Intelligence Camp (7. Edition) ist beendet. Organisiert vom National Programme for Artificial Intelligence in Zusammenarbeit mit dem National Programme for Coders, schloss das Camp am 19. August 2025 in Dubai ab.

Von Mitte Juli bis Mitte August bot es über 70 Wissens- und Interaktionsformate – darunter 9 virtuelle Workshops – sowie Hackathons, Challenges und Vorträge. Die Programme richteten sich an Kinder, Studierende, Young Professionals und Experten und deckten sieben Themenfelder ab:

  • Zukunft der KI
  • Data Science & Machine Learning
  • smarte Anwendungen in Bildung, Gesundheit und Finanzen
  • Web- und Robotik-Entwicklung
  • KI-Governance & Ethik
  • Cybersicherheit
  • Virtual & Augmented Reality

Quelle: Emirates News Agency (WAM): „UAE AI Camp concludes seventh edition with over 70 diverse workshops“, 19. August 2025. Zum Artikel

KI-Kompetenz in Unternehmen nachhaltig aufbauen

Unternehmen stehen vor der Aufgabe, das Potenzial Künstlicher Intelligenz (KI) zu heben und zugleich Vertrauen in ihrer Organisation aufzubauen. Der Schlüssel dazu ist ein systematischer Kompetenzaufbau: Eine realistische KI-Readiness-Bewertung deckt Lücken auf, priorisiert Maßnahmen und lenkt Ressourcen dorthin, wo sie die größte Wirkung entfalten.

Ganzheitliche KI-Kompetenz umfasst weit mehr als Technologie-Stacks. Es geht um eine datengetriebene Kultur, robuste Prozesse und Mitarbeitende, die KI-Werkzeuge souverän einsetzen – von klassischen ML-Verfahren bis zu großen Sprachmodellen. Neue Studienergebnisse zeigen zugleich ausgeprägte Länder- und Branchenunterschiede in der Zuversicht, KI erfolgreich zu nutzen.

So liegt die Zustimmung in der Schweiz bei 58 %, in Italien bei 52 %, während Deutschland mit 34 % und Österreich mit 37 % skeptischer bleiben. Branchenspezifisch sind Private Equity (71 %), Finanzdienstleistungen (66 %), sowie Energie und fortschrittliche Fertigung & Mobilität (je 62 %) besonders zuversichtlich. Zudem priorisieren Mitarbeitende bei KI-Investitionen vor allem neue Software (35 %) und Qualifizierung (33 %), während Prognose-fähigkeiten überraschend weit hinten rangieren.

Shop mit KI und Computer

Damit KI vom Pilot zum Produktivitätshebel wird, empfiehlt sich ein mehrgleisiger Ansatz:

  • Readiness-Analyse & Zielbild: Ausgangslage, Reifegrad und Use-Case-Portfolio klar bestimmen.
  • Governance & Risiko: Leitplanken für Datenschutz, Sicherheit, Fairness und Nachvollziehbarkeit etablieren.
  • Qualifizierung: Rollenbasiertes Upskilling (Fachbereiche, IT, Compliance) mit Praxisbezug verankern.
  • Technik & Daten: Skalierbare Plattformen, saubere Datenpipelines und Metriken für Nutzen & Qualität.
  • Wertnachweis: Messbare KPIs (Zeitgewinn, Qualität, Risiko, Umsatz) und kontinuierliche Verbesserung.

Unternehmen, die Kompetenzen strukturiert aufbauen, beschleunigen Innovation, reduzieren Risiken und schaffen nachhaltige Werte. Entscheidend ist, KI als Organisationsfähigkeit zu begreifen – nicht als Einzelprojekt. So wächst die Akzeptanz im Team und erfolgreiche Lösungen lassen sich reproduzierbar in die Fläche bringen.

Unterstützung gefällig? Die Informationsdienst Högerl begleitet Sie von der Readiness-Analyse über die Strategie bis zur Implementierung praxistauglicher KI-Lösungen – inklusive Governance, Schulung und Wertmessung. Kontakt: hoegerl@pm.me.


Quelle: Susanne Zach: „KI-Kompetenz in Unternehmen: Vertrauen aufbauen und neue Technologien nutzen“, EY Insights, 12. Juli 2024. https://www.ey.com/de_at/insights/ai/kuenstliche-intelligenz-kompetenz-unternehmen

KI-Steuerung von Computern und IoT-Geräten: Von Grundlagen bis zur technischen Umsetzung

Teil 1: Grundlagen für Einsteiger

Was bedeutet KI-Steuerung?

Künstliche Intelligenz (KI) zur Steuerung von Computern und IoT-Geräten bezeichnet die Fähigkeit intelligenter Systeme, elektronische Geräte automatisch zu bedienen und zu kontrollieren. Stellen Sie sich vor, Ihr Computer könnte selbstständig Programme öffnen, E-Mails verfassen oder Dateien organisieren – genau das ermöglicht KI-Steuerung.

Bei IoT-Geräten (Internet of Things) geht es um vernetzte Alltagsgegenstände wie intelligente Glühbirnen, Thermostate, Sicherheitskameras oder Sprachassistenten. KI kann diese Geräte nicht nur einzeln steuern, sondern sie auch intelligent miteinander vernetzen und koordinieren.

Warum ist das wichtig?

Die KI-Steuerung bringt drei wesentliche Vorteile mit sich:

Automatisierung alltäglicher Aufgaben: Repetitive und zeitraubende Tätigkeiten können vollständig automatisiert werden. Ein KI-System kann beispielsweise täglich E-Mails sortieren, Termine planen oder Berichte erstellen, ohne dass ein Mensch eingreifen muss.

Intelligente Entscheidungsfindung: Moderne KI-Systeme können Muster erkennen und darauf basierend Entscheidungen treffen. Ein intelligentes Heizsystem lernt etwa die Gewohnheiten der Bewohner und passt die Temperatur entsprechend an, bevor sie überhaupt nach Hause kommen.

Nahtlose Geräteintegration: Verschiedene Geräte können miteinander kommunizieren und koordiniert arbeiten. Wenn das Smartphone erkennt, dass Sie sich Ihrem Zuhause nähern, kann es automatisch die Beleuchtung einschalten, die Alarmanlage deaktivieren und die Musik starten.

Praktische Anwendungsbeispiele

Im Smart Home Bereich zeigt sich das Potenzial besonders deutlich. Eine KI kann lernen, wann Sie normalerweise aufstehen, und bereits 15 Minuten vorher die Kaffeemaschine starten, die Rollläden hochfahren und die Heizung aktivieren. Gleichzeitig analysiert sie Wetterdaten und schlägt passende Kleidung vor oder warnt vor Stau auf dem Arbeitsweg.

In Büroumgebungen können KI-Assistenten Kalendermanagement übernehmen, automatisch Meetings planen, Dokumente nach Priorität sortieren und sogar einfache Präsentationen erstellen. Dabei lernen sie kontinuierlich die Arbeitsweise und Präferenzen des Nutzers kennen.

Teil 2: Technische Implementierung für IT-Versierte

Architektur und Systemkomponenten

Die technische Umsetzung der KI-Steuerung basiert auf einer mehrschichtigen Architektur. Die Perception Layer erfasst Daten über verschiedene Sensoren und APIs. Machine Learning Modelle, typischerweise neuronale Netzwerke oder Entscheidungsbäume, verarbeiten diese Informationen in der Processing Layer. Die Action Layer führt schließlich die entsprechenden Befehle aus.

Moderne Implementierungen nutzen häufig Edge Computing, um Latenzzeiten zu minimieren und die Privatsphäre zu gewährleisten. Lokale KI-Chips wie der Google Coral TPU oder Intel Neural Compute Stick ermöglichen die Verarbeitung direkt auf dem Gerät, ohne dass Daten in die Cloud übertragen werden müssen.

Kommunikationsprotokolle und Standards

Die Gerätesteuerung erfolgt über etablierte Protokolle wie MQTT für IoT-Kommunikation, REST APIs für Webservices und WebSockets für Echtzeitverbindungen. Bei der Computersteuerung kommen plattformspezifische APIs zum Einsatz: Win32 API und PowerShell unter Windows, AppleScript und Automator unter macOS sowie D-Bus und Shell-Scripting unter Linux.

Für die geräteübergreifende Kommunikation haben sich Standards wie Matter durchgesetzt, der eine einheitliche Kommunikation zwischen verschiedenen Smart Home Ökosystemen ermöglicht. Thread und Zigbee 3.0 bieten dabei die notwendige Mesh-Netzwerk-Infrastruktur für zuverlässige, energieeffiziente Übertragungen.

Machine Learning Ansätze

Reinforcement Learning erweist sich als besonders effektiv für Steuerungsaufgaben. Algorithmen wie Deep Q-Networks (DQN) oder Proximal Policy Optimization (PPO) lernen optimale Aktionssequenzen durch Trial-and-Error-Verfahren. Ein RL-Agent kann beispielsweise lernen, ein komplexes Smart Home System zu optimieren, indem er Belohnungen für energieeffiziente Entscheidungen oder Nutzerzufriedenheit erhält.

Natural Language Processing ermöglicht sprachbasierte Steuerung. Moderne Transformer-Modelle wie GPT oder BERT können natürliche Befehle in strukturierte API-Aufrufe übersetzen. Intent Recognition und Entity Extraction identifizieren dabei die gewünschte Aktion und die betroffenen Geräte.

Computer Vision erweitert die Möglichkeiten um bildbasierte Steuerung. Convolutional Neural Networks können Bildschirminhalte analysieren und entsprechende Aktionen ableiten. OpenCV und TensorFlow bieten hierfür umfangreiche Bibliotheken zur Bildverarbeitung und Objekterkennung.

Sicherheitsaspekte und Herausforderungen

Die Implementierung robuster Sicherheitsmechanismen ist kritisch. Zero-Trust-Architektur sollte implementiert werden, bei der jede Komponente authentifiziert und autorisiert wird. TLS 1.3 verschlüsselt die Kommunikation, während OAuth 2.0 und JWT-Token eine sichere Authentifizierung gewährleisten.

Anomalie-Erkennung durch unbeaufsichtigtes Lernen kann ungewöhnliches Verhalten identifizieren und potenzielle Sicherheitsbedrohungen erkennen. Isolations-Sandboxen begrenzen die Auswirkungen kompromittierter KI-Systeme.

Eine besondere Herausforderung stellt die Explainable AI (XAI) dar. Bei kritischen Steuerungsaufgaben müssen KI-Entscheidungen nachvollziehbar sein. Techniken wie LIME oder SHAP können dabei helfen, die Entscheidungslogik transparenter zu gestalten.

Zukunftsausblick und Entwicklungstrends

Die Integration von Large Language Models wie GPT-5, DeepSeek oder Claude ermöglicht eine natürlichere Mensch-Computer-Interaktion. Multimodale KI kombiniert Text, Sprache, Bilder und Sensordaten für kontextbewusstere Entscheidungen.

Geschütztes Lernen erlaubt es, KI-Modelle zu trainieren, ohne sensible Daten preiszugeben. Jedes Gerät trainiert lokal und teilt nur Modell-Updates, nicht die Rohdaten. Dies ist besonders relevant für den Datenschutz in Smart Home Umgebungen.

Die Entwicklung hin zu Neuromorphic Computing und Quanten Machine Learning verspricht deutlich effizientere und mächtigere KI-Steuerungssysteme. Chips wie der Intel Loihi simulieren die Funktionsweise des menschlichen Gehirns und könnten die Energieeffizienz um Größenordnungen verbessern.

Fazit

Die KI-gesteuerte Kontrolle von Computern und IoT-Geräten steht noch am Anfang ihres Potenzials. Während die grundlegenden Technologien bereits verfügbar sind, erfordern robuste, skalierbare Implementierungen sorgfältige Planung und Berücksichtigung von Sicherheits- und Datenschutzaspekten. Die kontinuierliche Entwicklung in den Bereichen Machine Learning, Edge Computing und Kommunikationsstandards wird diese Technologie in den kommenden Jahren deutlich zugänglicher und leistungsfähiger machen.

JSON – Das universelle Datenformat für den Datenaustausch

In der heutigen digitalen Welt, in der Webanwendungen, APIs, Cloud-Plattformen und mobile Applikationen nahtlos miteinander kommunizieren, spielt der strukturierte Datenaustausch eine zentrale Rolle. Eines der am weitesten verbreiteten Formate für diesen Zweck ist JSON (JavaScript Object Notation). Dieses leichtgewichtige Datenformat hat sich als Standard für die Übertragung strukturierter Informationen zwischen Systemen etabliert.

Was ist JSON?

JSON (JavaScript Object Notation) ist ein textbasiertes Format zur Darstellung strukturierter Daten, das ursprünglich aus der JavaScript-Welt stammt, aber heute von nahezu jeder Programmiersprache unterstützt wird. Es wird insbesondere im Webumfeld verwendet, z. B. beim Austausch von Daten zwischen Client und Server.

JSON ist einfach lesbar, sowohl für Menschen als auch für Maschinen. Die Syntax basiert auf einer Untermenge der JavaScript-Objektnotation, jedoch ohne deren Funktionsumfang.

Aufbau und Struktur von JSON

JSON besteht aus zwei Hauptstrukturen:

  1. Objekte – eine ungeordnete Sammlung von Schlüssel-Wert-Paaren.
  2. Arrays – eine geordnete Liste von Werten.

1. JSON-Objekt

{
  "name": "Max Mustermann",
  "alter": 35,
  "verheiratet": false
}

2. JSON-Array

[
  "Apfel",
  "Banane",
  "Kirsche"
]

Gültige Datentypen in JSON

  • Zeichenkette (String) → „Beispiel“
  • Zahl (Number) → 123.45
  • Objekt → {…}
  • Array → […]
  • Boolean → true oder false
  • Null → null

Verschachtelte Strukturen

{
  "benutzer": {
    "id": 1001,
    "name": "Anna",
    "rollen": ["admin", "editor"]
  }
}

Rolle der Klammern in JSON

{ } definieren ein Objekt.
[ ] definieren ein Array.

Diese Klammern sorgen für die logische Strukturierung der Daten. JSON-Dateien müssen wohlgeformt sein – jeder öffnenden Klammer muss eine schließende gegenüberstehen, und die Syntax muss exakt eingehalten werden.

JSON im Einsatz – ein typisches Anwendungsbeispiel

{
  "id": 12345,
  "vorname": "Lisa",
  "nachname": "Müller",
  "email": "lisa.mueller@example.com",
  "newsletter": true
}

JSON in verschiedenen Programmier- und Scriptsprachen

JavaScript

const jsonString = '{"name":"Tom","alter":28}';
const obj = JSON.parse(jsonString);
console.log(obj.name);
const backToJson = JSON.stringify(obj);

Python

import json

json_str = '{"name": "Tom", "alter": 28}'
obj = json.loads(json_str)
print(obj['name'])
new_json = json.dumps(obj)

Java

import org.json.JSONObject;

String jsonString = "{\"name\":\"Tom\",\"alter\":28}";
JSONObject obj = new JSONObject(jsonString);
System.out.println(obj.getString("name"));

JSON im Vergleich zu XML

Kriterium JSON XML
Lesbarkeit Einfach Komplexer
Datenmenge Kompakter Umfangreicher
Parsing Schnell und nativ Aufwendiger
Unterstützung Sehr gut Weit verbreitet
Schemadefinition JSON Schema XSD

Sicherheit und JSON

Beim Umgang mit JSON-Daten ist besondere Vorsicht geboten, wenn diese von externen Quellen stammen. Mögliche Angriffsvektoren sind:

  • JSON Injection
  • Cross-Site Scripting (XSS)
  • Parsing-Fehler

Validierung von JSON

Zur Sicherstellung der Datenintegrität kann ein JSON Schema verwendet werden:

{
  "type": "object",
  "properties": {
    "name": { "type": "string" },
    "alter": { "type": "integer" }
  },
  "required": ["name", "alter"]
}

Beispiel mit der Konfiguration einer Anwendung mit JSON

{
  "server": {
    "port": 8080,
    "useSSL": true
  },
  "database": {
    "host": "localhost",
    "user": "root",
    "password": "geheim"
  }
}

JSON und Datenbanken

Moderne Datenbanken wie MongoDB oder PostgreSQL unterstützen JSON-Datentypen:

SELECT info->>'name' FROM benutzerWHERE info->>'rolle'='adm';

Vollständiges JSON-Beispiel

{
  "projekt": "Sensorüberwachung",
  "version": "1.0.3",
  "sensoren": [
    {
      "id": 101,
      "typ": "Temperatur",
      "einheit": "Celsius",
      "wert": 23.4
    },
    {
      "id": 102,
      "typ": "Luftfeuchtigkeit",
      "einheit": "%",
      "wert": 45.2
    }
  ],
  "status": "aktiv",
  "letzteAktualisierung": "2025-06-17T10:45:00Z"
}

Fazit

JSON hat sich als eines der wichtigsten Datenformate im Bereich der modernen Softwareentwicklung etabliert. Es bietet eine unkomplizierte Möglichkeit, strukturierte Informationen zu speichern, zu übertragen und zu verarbeiten. Ob bei der Kommunikation zwischen Frontend und Backend, dem Speichern von Konfigurationen oder beim Zugriff auf APIs – JSON ist universell einsetzbar.

Die klare Struktur, die breite Unterstützung durch nahezu alle Programmiersprachen und die hervorragende Lesbarkeit machen JSON sowohl für Entwickler als auch für Maschinen zur ersten Wahl. Es ersetzt in vielen Anwendungsfällen ältere Formate wie XML und überzeugt durch Einfachheit, Flexibilität und Effizienz.

Trotz aller Vorteile sollten Entwickler Sicherheitsaspekte wie Datenvalidierung, fehlerhafte Strukturierung und potenzielle Injection-Angriffe stets im Blick behalten. Mit gezieltem Einsatz von JSON-Schema und bewährten Bibliotheken lassen sich diese Risiken jedoch kontrollieren.

Insgesamt lässt sich sagen: JSON ist schlank, zuverlässig und unverzichtbar.

„JSON – Das universelle Datenformat für den Datenaustausch“ weiterlesen

UART – Serielle Kommunikation einfach erklärt mit dem Arduino

Was ist UART?

Die UART-Schnittstelle (Universal Asynchronous Receiver Transmitter) ist ein grundlegendes Kommunikationsprotokoll in der digitalen Elektronik. Sie wird genutzt, um Daten asynchron seriell zwischen zwei Geräten zu übertragen – z. B. zwischen einem Arduino und einem Sensor, Modul oder Computer.

Im Gegensatz zu synchronen Protokollen wie SPI oder I²C benötigt die UART Schnittstelle keine gemeinsame Taktleitung. Die Übertragung erfolgt über zwei Leitungen: TX (Transmit) und RX (Receive). Damit ist UART besonders einfach im Aufbau und vielseitig einsetzbar – ideal für Embedded-Systeme, Debugging und Modemkommunikation.

Techn. Spezifikationen der UART Schnittstelle des Arduino Uno

Merkmal Beschreibung
Signalpegel TTL 0 V (LOW) / 5 V (HIGH)
Pins TX (D1), RX (D0)
Baudrate Standard: 9600 bps (einstellbar)
Datenbits 8 (üblich)
Stoppbits 1 oder 2
Parität Keine (optional möglich)
Protokoll Asynchron, Vollduplex (2-Leiter)
Schnittstellen-Chip ATmega328P UART0 (interner USART)

Beispiel einer seriellen Kommunikation zwischen Arduino und PC

Wir senden über UART Textdaten vom Arduino an den seriellen Monitor eines PCs – nützlich zum Debuggen oder zur Protokollierung von Daten.

Benötigte Komponenten:

  • Arduino Uno
  • USB-Kabel
  • PC / Notebook mit Arduino IDE

Aufbau:

  • TX (D1) → USB-Seriell-Konverter (integriert)
  • RX (D0) ← USB-Seriell-Konverter

Hinweis: Beim Hochladen eines Programms über USB sind RX/TX bereits belegt. Währenddessen darf keine andere UART-Kommunikation aktiv sein.

Programmierung der UART-Datenübertragung mit dem Arduino

void setup() {
  Serial.begin(9600); // UART mit 9600 Baud starten
}

void loop() {
  Serial.println("Hallo, gesendet über UART!");
  delay(1000); // 1 Sekunde Pause
}

Erklärung:

  • Serial.begin(9600) >> Initialisiert UART mit 9600 Baud.
  • Serial.println(...) >> Sendet Text über TX an den PC.
  • Die Ausgabe erscheint im seriellen Monitor der Arduino IDE.

Es ist auch eine Erweiterung von UART zu UART möglich, wie zum Beispiel zwischen Microcontrollern Arduino ↔ ESP8266

Die Mikrocontroller werden direkt über UART verbunden

  • Arduino TX → ESP8266 RX
  • Arduino RX ← ESP8266 TX (mit Spannungsteiler!)

Da der ESP8266 nur 3,3 V verträgt, muss ein Spannungsteiler oder ein Pegelwandler verwendet werden.

Anwendungsbereiche von UART

  • Debugging und Logging über seriellen Monitor
  • Kommunikation mit GSM-, GPS-, RFID- oder Bluetooth-Modulen
  • Datenübertragung zwischen Mikrocontrollern
  • Firmware-Uploads bei Embedded-Systemen

Fazit

Die UART Schnittstelle ist eine der einfachsten und zugleich zuverlässigsten Methoden zur seriellen Kommunikation zwischen elektronischen Geräten. Der geringe Pinbedarf, die gute Unterstützung in Mikrocontroller-Entwicklungsumgebungen  sind ein Vorteil bei Aufbauten. Die breite Anwendungspalette macht die UART-Schnittstelle unverzichtbar im IoT-, Sensorik- und Embedded-Bereich.

Mit einem Arduino lassen sich erste Anwendungen spielend einfach umsetzen – ob zur Protokollierung, Fernsteuerung oder zur Kommunikation mit anderen Modulen. Wer die UART Schnittstelle beherrscht, öffnet die Tür zu vielen professionellen Elektronikprojekten.

GPIO bei IoT – Die universelle Schnittstelle zur Steuerung und Erfassung von Signalen

GPIO – Die universelle Schnittstelle zur Steuerung und Erfassung von Signalen

Was ist eine GPIO-Schnittstelle?

Die GPIO-Schnittstelle steht für General Purpose Input/Output. Dabei handelt es sich um eine universelle digitale Schnittstelle, die auf vielen Mikrocontrollern wie dem Arduino, ESP32, Raspberry Pi oder anderen eingebetteten Systemen zu finden ist. GPIO-Pins können per Programm als Eingänge oder Ausgänge konfiguriert werden. Sie dienen zum Lesen digitaler Signale oder zum Ansteuern externer Komponenten.

Technische Spezifikationen (am Beispiel des Arduino Uno)

Merkmal Beschreibung
Anzahl GPIO-Pins 14 digitale I/O Pins (D0–D13)
Spannung 5V (Logik HIGH), 0V (Logik LOW)
Maximaler Ausgangsstrom ca. 40 mA pro Pin
Interne Pullup-Widerstände Softwareaktivierbar (INPUT_PULLUP)
PWM-fähige Pins D3, D5, D6, D9, D10, D11
Schutz Kein Überspannungsschutz integriert

Anwendungsbeispiel: LED über GPIO steuern

Das Projekt wird eine LED über einen GPIO-Pin ein- und ausschalten.

Bauteile:

  • 1× Arduino Uno
  • 1× LED (z. B. 5 mm, rot)
  • 1× 220 Ω Widerstand
  • Jumper-Kabel
  • Steckbrett

Schaltung:

Die LED-Anode (+) an Digitalpin 13 und die Kathode (–) über 220 Ω Widerstand an GND anschließen.


Arduino D13 ─────┬────>│──┬─── GND  
                 │   LED  │  
                 │        R  
                 └────────┘  

Programmierung der Arduino IDE


// Pin-Definition
const int ledPin = 13;

void setup() {
  // Setze Pin 13 als Ausgang
  pinMode(ledPin, OUTPUT);
}

void loop() {
  digitalWrite(ledPin, HIGH); // LED ein
  delay(1000);                // 1 Sekunde warten
  digitalWrite(ledPin, LOW);  // LED aus
  delay(1000);                // 1 Sekunde warten
}

Erklärung des Codes

  • pinMode(ledPin, OUTPUT): Konfiguriert Pin 13 als Ausgang
  • digitalWrite(ledPin, HIGH): Schaltet die LED ein
  • delay(1000): Wartet 1 Sekunde
  • loop(): Wiederholt den Vorgang in einer Endlosschleife

Weitere Anwendungsmöglichkeiten von GPIO

  • Taster abfragen (Input)
  • Relais ansteuern (Output)
  • Sensoren auslesen
  • Servomotoren steuern
  • Datenkommunikation über I²C oder SPI

Fazit

Die GPIO-Schnittstelle ist das zentrale Bindeglied zwischen Mikrocontroller und realer Welt. Durch einfaches Umschalten zwischen Input und Output kann ein Arduino vielseitige Aufgaben übernehmen – von der simplen LED-Steuerung bis hin zur komplexen Sensorüberwachung. Wer die Funktionsweise der GPIO-Pins verstanden hat, besitzt das Fundament für nahezu jedes Elektronikprojekt.

Barrierefreiheit