Bystronic erschliesst neue Märkte in der Medizintechnik
Bystronic hat per Ende Januar den Abschluss der Übernahme des Geschäftsbereichs Tools for Materials Processing des US-amerikanischen Unternehmens Coherent Corp. bekannt gegeben und erweckt die Marke «Rofin» zu neuem Leben.
Redaktion - 2. Februar 2026
StarCut Tube ermöglicht das Schneiden von Stents im Mikrobereich mit höchster Präzision. (Bild: Bystronic)
Das in der Schweiz ansässige internationale Unternehmen Bystronic ist ein führender Anbieter von Lösungen für die Blech- und Materialbearbeitung. Bystronic kombiniert Laserschneidtechnologie, Abkantpressen, Automatisierung und Software mit innovativen Laseranwendungen für neue Werkstoffe und Prozesse. Nun vollzieht das Unternehmen die Übernahme des Geschäftsbereichs «Tools for Materials Processing» von Coherent Corp. Die Übernahme wird Bystronic dabei helfen, in neue attraktive Wachstumsmärkte wie Medizintechnik, Halbleiter und allgemeine Fertigung zu expandieren. Darüber hinaus wird das Portfolio von Bystronic um neue Laseranwendungen wie Mikromaterialbearbeitung, Markieren, Gravieren und Bohren erweitert.
Übernahme der Markenrechte an Rofin
Mit dieser Übernahme erwirbt Bystronic auch die Rechte an der bekannten Marke Rofin, die als Teil des neu geschaffenen Geschäftsbereichs «Bystronic Rofin» weitergeführt wird. Die vielseitigen Lasertechnologien von Bystronic Rofin ermöglichen die Bearbeitung einer Vielzahl von Materialien, darunter Metall, Glas, Keramik, Polymere und organische Werkstoffe. Aufgrund der grossen Vielfalt an Anwendungen und Materialien wird die Akquisition neue Möglichkeiten in Forschung und Entwicklung eröffnen.
Anwendungen für eine Vielzahl von Branchen
«Wir heissen alle Kunden, Partner und Kollegen des Unternehmens herzlich in unserem neuen Bereich Bystronic Rofin willkommen», sagt Domenico Iacovelli, CEO von Bystronic. «Wir integrieren die erfolgreiche und wegweisende Technologie von Rofin in unser Bystronic-Produktportfolio und schaffen damit ein breites Anwendungsspektrum für Kunden aus verschiedenen Branchen. Gemeinsam werden wir unsere Kunden bei der Optimierung und Weiterentwicklung ihrer Produktion unterstützen, damit sie in zunehmend wettbewerbsintensiven Märkten an der Spitze bleiben können.»
Mit rund 400 Mitarbeitern erzielte der profitable Geschäftsbereich Bystronic Rofin in den letzten Jahren einen Jahresumsatz von rund 100 Millionen US-Dollar. Der Hauptsitz befindet sich in Gilching bei München.
SCSD 2026: Wer bestimmt die Spielregeln der neuen Welt?
Die digitale Zukunft Europas entscheidet sich im Hier und Jetzt. Am 17. und 18. Februar 2026 wird das BERNEXPO-Areal zum Brennpunkt einer Debatte, die über Sicherheit, Freiheit und Selbstbestimmung im digitalen Raum entscheidet.
Redaktion - 30. Januar 2026
An den Swiss Cyber Security Days 2026 finden Besucherinnen und Besucher einmal mehr eine Fülle an Antworten auf dringliche Fragen der Cybersicherheit und mehr. (Bild: Thomas Berner)
Unter dem Motto «Digital Sovereignty – The New Frontier» vereinen die Swiss Cyber Security Days 2026 nationale wie internationale Grössen, um Antworten auf eine der dringlichsten Fragen unserer Zeit zu finden.
Digitale Souveränität rückt auf die Agenda von Politik und Wirtschaft
Der Auftritt der Vereinigten Staaten von Amerika am World Economic Forum 2026 war ein unmissverständliches Signal: Souveränität, auch und gerade im digitalen Raum, rückt weiter ins Zentrum geopolitischer, wirtschaftlicher und gesellschaftlicher Machtfragen. In dieser neuen Realität ist Empörung keine Strategie. Weder für Europa noch für die Schweiz. Die Bundeshauptstadt rückt am 17. und 18. Februar 2026 für zwei Tage ins Zentrum dieser Debatte. Nationale und internationale Top Speakerinnen und Speaker werden die digitale Zukunft verhandeln – unbequem und relevant, wie die Veranstalter versprechen. Denn digitale Souveränität ist längst kein abstraktes Schlagwort mehr, sondern eine strategische Notwendigkeit. Wer kontrolliert Daten, Infrastrukturen und Identitäten? Wer setzt Standards, gestaltet Abhängigkeiten oder löst sie auf? Und wie sichern wir Freiheit, Innovationskraft und Sicherheit in einer zunehmend vernetzten, aber fragmentierten Welt?
Nationale und internationale Grössen auf den Bühnen
Wenn digitale Souveränität, Sicherheit und geopolitische Realität aufeinandertreffen, entsteht ein inspirierender Dialog von internationaler Tragweite. Auf der Bühne kommen führende Köpfe aus Politik, Technologie, Behörden, Wissenschaft und internationalen Organisationen zusammen, um Antworten auf die zentralen strategischen Fragen der digitalen Zukunft Europas und der Schweiz zu liefern. Zu den Speakerinnen und Speakern der SCSD 2026 zählen:
Florian Schütz, Direktor des Bundesamts für Cybersicherheit BACS, zu Cyberresilienz und staatlichen Schutzmechanismen
Dr. Cristina Caffarra (EuroStack) zur europäischen digitalen Unabhängigkeit und strategischen Autonomie
Frank Karlitschek (Nextcloud) zu Open-Source-Anwendungen und souveränen digitalen Infrastrukturen für Regierungen und Behörden
Dr. Jean-Marc Rickli (GCSP) zu geopolitischen Machtverschiebungen im digitalen Zeitalter
Prof. Dr. Dr. Oliver Hoffmann zu menschlichem Geist, mentaler Ökonomie und Resilienz im Cyberspace
Prof. Dr. Touradj Ebrahimi (EPFL) zur Bedeutung von Standards für technologische Souveränität
José Neves (Aerospace & Defense Cluster Portugal) zur Rolle von Industrieclustern in der europäischen Innovations- und Sicherheitsarchitektur
Bruno Giussani, langjähriger European Director von TED, zu Technologie, gesellschaftlicher Verantwortung und globalem Diskurs
Nathalie Gratzer (NATO) zu internationalen Sicherheitsarchitekturen
Pavlina Pavlova (United Nations) zu globaler Cyberkriminalität und multilateralen Gegenstrategien
Ergänzt wird das Programm durch Beiträge von fedpol, dem Bundesamt für Justiz und Google zu E-Identitäten, der Cyber Division des FBI sowie weiteren internationalen Organisationen von zentraler sicherheitspolitischer Bedeutung. Zukunftsthemen wie Post-Quantum-Kryptografie und KI-Sicherheit runden das Programm ab und machen deutlich, welche technologischen Weichen heute gestellt werden müssen, um handlungsfähig zu bleiben.
Best-Practice und KMU-Workshops
Den Übergang von strategischer Einordnung zu konkreter Umsetzung, ermöglichen die zwei kuratierten Best Practice Stages. In praxisnahen Erfahrungsberichten zeigen Unternehmen, Behörden und Lösungsanbieter, wie Cybersecurity-Strategien und -Lösungen im Alltag erfolgreich eingeführt, betrieben und weiterentwickelt werden – von Mitarbeitersensibilisierung über Incident Response bis hin zum Aufbau nachhaltiger Sicherheitsstrukturen.
Die Inhalte richten sich sowohl an Fach- und Führungskräfte aus Mittelstand und Grossunternehmen als auch an KMU, Behörden und Anwenderorganisationen. In der neuen KMU-Zone werden mit der Hochschule Luzern HSLU zusätzlich vertiefende Workshops zu KMU-relevanten Themen angeboten. Damit ergänzen die Best Practice Stages und die Workshops der KMU-Zone das strategische Konferenzprogramm um das entscheidende Element: Umsetzungswissen aus der Praxis. Insgesamt präsentieren an den diesjährigen Swiss Cyber Security Days rund 100 Ausstellende ihre Produkte, Dienstleistungen und Innovationen.
Deutlicher Handlungsbedarf bei Smart Building Management
Eine aktuelle ZHAW-Studie zeigt: Trotz hoher Erwartungen nutzen nur 35 Prozent der Gebäude Smart-Building-Lösungen. Der neu entwickelte SBM Index Real Estate & Facility Management Schweiz 2025 liegt bei 51 von 100 Punkten – ein Signal für Aufholbedarf.
Redaktion - 30. Januar 2026
Beim Smart Building Management besteht noch viel Nachholbedarf, wie eine Studie zeigt. (Symbolbild; Quelle: Depositphotos.com)
Smart Building Management (SBM) gilt als Schlüssel zur Steigerung von Energieeffizienz, Wirtschaftlichkeit und Transparenz im Gebäudebetrieb. Eine aktuelle Studie der ZHAW zeigt jedoch: Trotz hoher Erwartungen ist die Umsetzung in der Praxis bislang oft fragmentiert.
Grosses Potenzial wird erkannt
Die Studie basiert auf einer Onlinebefragung von 478 Fach- und Führungskräften aus Real Estate, Facility Management und angrenzenden Funktionen in der Schweiz. 78 Prozent der Befragten sehen ein hohes oder sehr hohes Potenzial von SBM, insbesondere bei der Effizienzsteigerung im Facility Management sowie der Reduktion von Energieverbrauch und CO₂-Emissionen.
«Smart Building Management ist in der Praxis angekommen, aber noch nicht dort, wo es sein könnte», sagt Prof. Dr. Andrea González, Leiterin der Kompetenzgruppe Smart Building Management an der ZHAW. «Viele Organisationen nutzen einzelne digitale Lösungen, ohne diese systematisch zu verknüpfen oder strategisch zu steuern.»
Lücke zwischen Anspruch und Realität
Gleichzeitig zeigt sich eine deutliche Lücke zwischen Anspruch und Realität: SBM wird derzeit nur in rund 35 Prozent der bekannten Gebäude eingesetzt – häufig punktuell und nicht portfolioübergreifend. Auch der Reifegrad bleibt in vielen Organisationen niedrig: Insellösungen überwiegen, während datengetriebene, integrierte Ansätze die Ausnahme darstellen.
Der neu entwickelte SBM Index Real Estate & Facility Management Schweiz 2025 liegt bei 51 von 100 Punkten: ein klares Signal für Aufholbedarf. Mit dem SBM Index schafft die ZHAW erstmals ein Instrument, das den Umsetzungsstand von Smart Building Management strukturiert und vergleichbar abbildet. Er dient als Orientierungsrahmen für Eigentümer, Betreiber und Facility-Management-Organisationen.
Hohe Investitionskosten als Hemmnis
Als zentrale Hemmnisse nennen die Befragten vor allem hohe Investitionskosten, technische Komplexität sowie die Integration in bestehende Systeme. Zudem wird der Nutzen von Smart-Building-Lösungen häufig nicht systematisch gemessen. «Ohne klare Zielbilder, Messkonzepte und ausreichende Kompetenz bleibt der tatsächliche Mehrwert von Smart Building Management oft unsichtbar», so González.
«Unsere Ergebnisse zeigen deutlich: Je höher der Reifegrad der Umsetzung, desto stärker werden Energieeinsparungen, Effizienzgewinne und regulatorische Ziele auch tatsächlich erreicht», erklärt die Studienleiterin weiter.
Cyberangriffe in der Schweiz steigen um sechs Prozent
Check Point Software Technologies hat den Cyber Security Report 2026 veröffentlicht. In der Schweiz wurden 2025 pro Woche durchschnittlich 1138 Cyberangriffe auf Organisationen registriert – ein Anstieg von sechs Prozent gegenüber dem Vorjahr. Besonders betroffen ist der Telekommunikationssektor mit 1662 wöchentlichen Attacken.
Redaktion - 29. Januar 2026
Die Zahl der Cyberangriffe ist in der Schweiz erneut angestiegen. (Bild: Ed Hardie / Unsplash.com)
Check Point Software Technologies hat die 14. Auflage seines Cyber Security Reports veröffentlicht. Die Sicherheitsforscher des Unternehmens fassen darin die globalen Entwicklungen bei Cyberangriffen im Jahr 2025 im Vergleich zum Vorjahr zusammen. Die Zahlen für die Schweiz zeigen einen Anstieg von sechs Prozent: Pro Woche zielten durchschnittlich 1138 Angriffe auf Organisationen und Unternehmen.
Telekommunikation am stärksten betroffen
Der Telekommunikationssektor ist mit 1662 wöchentlichen Angriffen besonders im Visier der Cyberkriminellen. Auf den zweiten Platz folgt der Einzelhandel mit 1440 Attacken pro Woche, gefolgt von der öffentlichen Verwaltung mit durchschnittlich 1336 Angriffen wöchentlich.
«Im Ländervergleich mit 14 Prozent Anstieg in Deutschland und zwölf Prozent Anstieg in Österreich sind die Zahlen für die Schweiz fast schon moderat, von einer Entwarnung kann aber keine Rede sein», erklärt Marco Pierro, Country Manager Schweiz bei Check Point Software Technologies. «Die Bedrohungslage verschärft sich mit dem KI-Einsatz bei den Cyberkriminellen. Schweizer Organisationen und Unternehmen stellen für Cyberkriminelle Hochwertziele dar und besonders die Ergebnisse rund um den Einsatz von integrierten Kampagnen stechen heraus.»
KI-gesteuerte Cyberangriffe nehmen zu
Der Bericht hebt die Verschiebung hin zu integrierten Angriffskampagnen über mehrere Kanäle hinweg hervor. Diese Vorgehensweise kombiniert Täuschung mit maschineller Automatisierung. Weltweit waren Unternehmen im abgelaufenen Jahr durchschnittlich 1968 Cyberattacken pro Woche ausgesetzt – ein Anstieg von 18 Prozent gegenüber 2024 und von 70 Prozent seit 2023.
Die Angreifer nutzen die Möglichkeiten der Automatisierung und künstlichen Intelligenz, um sich in Systemen schneller zu bewegen, leichter zu skalieren und über mehrere Angriffsflächen gleichzeitig zu operieren. «KI verändert die Mechanismen von Cyberangriffen und nicht nur deren Umfang», erklärt Lotem Finkelstein, VP of Research bei Check Point Software. «Wir beobachten, dass Angreifer von rein manuellen Operationen zu einem immer höheren Automatisierungsgrad übergehen. Wir finden auch erste Anzeichen für autonome Techniken.»
Neue Angriffstaktiken
Der Report identifiziert mehrere zentrale Entwicklungen: KI wird zunehmend in die Arbeitsabläufe von Angreifern integriert und beschleunigt Aufklärung, Social Engineering und die operative Entscheidungsfindung. Während eines dreimonatigen Zeitraums waren 89 Prozent der Unternehmen mit riskanten KI-Anfragen konfrontiert, wobei etwa eine von 41 Anfragen als hochriskant eingestuft wurde.
Das Ransomware-Ökosystem hat sich in kleinere, spezialisierte Gruppen dezentralisiert, was zu einem Anstieg der erpressten Opfer um 53 Prozent im Vergleich zum Vorjahr führte. Die Zahl neuer Ransomware-as-a-Service-Gruppen stieg um 50 Prozent. Social Engineering weitet sich zunehmend über E-Mail hinaus aus. ClickFix-Techniken sind im vergangenen Jahr um 500 Prozent gestiegen und nutzen betrügerische technische Aufforderungen, um Nutzer:innen zu manipulieren.
Unüberwachte Edge-Geräte, VPN-Appliances und IoT-Systeme werden zunehmend als operative Relaispunkte genutzt, um sich in den legitimen Netzwerkverkehr einzumischen. Eine von Lakera durchgeführte Analyse hat bei 40 Prozent von 10’000 untersuchten MCP-Servern (Model Context Protocol) Sicherheitsschwachstellen identifiziert.
Empfehlungen für Unternehmen
Check Point empfiehlt Unternehmen, ihre Sicherheitsgrundlagen für das Zeitalter der KI zu überarbeiten. Die Kontrollen für Netzwerke, Endpunkte, Cloud, E-Mail und SASE sollten neu bewertet werden, um autonome, koordinierte Angriffe frühzeitig zu stoppen. Wichtig ist zudem, genehmigte und nicht genehmigte KI-Nutzung zu kontrollieren und transparent zu machen.
Sicherheitsstrategien müssen den Arbeitsbereich schützen, in dem sich menschliches Vertrauen und KI-gesteuerte Automatisierung kreuzen. Eine aktive Inventarisierung und Absicherung von Edge-Geräten, VPN-Appliances und IoT-Systemen trägt dazu bei, versteckte Gefahren zu unterbinden. Da Angriffe mit Maschinengeschwindigkeit ablaufen, ist präventive Sicherheit unerlässlich, um Bedrohungen zu stoppen, bevor es zu lateralen Bewegungen, Datenverlust oder Erpressung kommt.
Embedded AI: Künstliche Intelligenz für dezentrale Entscheidungen am Netzwerkrand
Embedded AI verschiebt Künstliche Intelligenz von der Cloud direkt auf Geräte am Rand des Netzwerks. Diese Entwicklung wird durch energiesparende Hardware, lokale Datenverarbeitung und Echtzeit-Entscheidungsfindung vorangetrieben. Fortschrittliche Komprimierungs- und Optimierungstechniken werden dabei zunehmend unverzichtbar.
Redaktion - 28. Januar 2026
Automatische Codegenerierung von Matlab. (Quelle: MathWorks)
Embedded AI entwickelt sich zunehmend zu einem zentralen Treiber moderner Edge-Systeme. Mit dieser Technologie verschiebt sich Künstliche Intelligenz von der Cloud direkt dorthin, wo sie gebraucht wird – auf die Geräte am Rand des Netzwerks. Embedded Hardware mit geringem Stromverbrauch sorgt für Kosten- und Energieeinsparungen. Die lokale Verarbeitung schützt die Daten und erlaubt den Offline-Betrieb, während Edge-KI die Entscheidungsfindung in Echtzeit bei minimaler Latenz unterstützt. Dies ist für autonome Systeme und die industrielle Automatisierung erforderlich.
Markt wächst rasant dank spezialisierter Hardware
Der Markt für Embedded AI wächst rasant, getragen von spezialisierten Hardwarekomponenten wie Neural Processing Units (NPUs) und heterogenen Architekturen, die immer häufiger direkt in Mikrocontroller und Systems on Chips (SoCs) integriert werden. Dadurch stehen Ingenieure vor der Herausforderung, komplexe Modelle auf Geräten mit begrenzten Speicher- und Rechenressourcen einzusetzen. Techniken wie Quantisierung, Pruning und andere Methoden der Modellkomprimierung sind daher essenziell. Neben der Hardware gewinnen leistungsfähige Bibliotheken und Tools zunehmend an Bedeutung, um KI über verschiedene Plattformen hinweg zuverlässig nutzbar zu machen.
Ein konkretes Beispiel für diesen Trend ist die Kombination von Wake-Word-Erkennung mit Objekterkennung und -verfolgung auf Qualcomm Snapdragon-Plattformen. YOLOX-basierte Netzwerke für die Objekterkennung werden hierfür eingesetzt, wobei die Inferenz auf die Hexagon NPU ausgelagert ist. Die NPU wird hierbei nur im Bedarfsfall aktiviert, falls vorher ein entsprechendes Wakeword (Audiosignal) gegeben wurde und dieses von einer zweiten, stromsparenderen NPU erkannt wurde. Dieser Ansatz zeigt, wie heterogene Architekturen, die eine NPU mit geringem Stromverbrauch mit Hexagon DSP kombinieren, Bildverarbeitungsaufgaben in Echtzeit ermöglichen und gleichzeitig die Energieeffizienz aufrechterhalten.
Code-Generierung mit Deep Learning. (Quelle: MathWorks)
Shift Left für smarte KI
Mit der zunehmenden Komplexität eingebetteter KI steigt auch der Bedarf an klar strukturierten Workflowprozessen. Model-Based Design bietet hierfür einen Rahmen: Statt Low-Level-Code zu schreiben, modellieren Ingenieure ihre Algorithmen visuell in Simulink. Anforderungen, Modelle und Testartefakte werden dabei in einem einheitlichen digitalen Thread zusammengeführt, was die Zusammenarbeit und Rückverfolgbarkeit über den gesamten Produktlebenszyklus hinweg unterstützt.
Ein zentraler Vorteil dieses Ansatzes liegt in der frühzeitigen Validierung. Mithilfe von Hardware-in-the-Loop- (HIL) und Processor-in-the-Loop- (PIL) Tests lassen sich potenzielle Probleme frühzeitig erkennen und die Entwicklung beschleunigen, ganz im Sinne des «Shift Left» Prinzips. Wie dieser Ansatz funktioniert, lässt sich anhand eines Beispiels aus der Automobilbranche erklären. Bei der KI-basierten Trajektorienplanung und -steuerung auf Infineon AURIX TC4x werden neuronale Netzwerksteuerungen vor dem Einsatz mithilfe von Model-Based Design entworfen und validiert. Durch die Nutzung einer Parallelverarbeitungseinheit (PPU) auf der Hardware erzielt diese Lösung im Vergleich zu herkömmlichen Ansätzen eine um 50 Prozent höhere Genauigkeit und 5 Prozent Energieeinsparungen – ein Beispiel dafür, wie strukturierte Workflows und hardwarebewusste Optimierung greifbare Vorteile bieten.
Von Matlab zum Microcontroller
MathWorks bietet eine integrierte Umgebung für die Entwicklung und Bereitstellung von KI auf eingebetteten Systemen. Ingenieure können ihre Modelle in Matlab entwerfen und trainieren oder bereits trainierte Modelle aus Frameworks wie PyTorch, TensorFlow und ONNX importieren. Mithilfe automatischer Codegenerierungstools wie Matlab Coder und GPU Coder lassen sich diese Modelle in optimierten C-, C++-, CUDA- oder HDL-Code für CPUs, GPUs, FPGAs und MCUs übersetzen. Auf diese Weise wird die Lücke zwischen High-Level-Design und Hardware-Implementierung geschlossen.
Zudem sind Optimierungs-Workflows für Quantisierung, Pruning und Komprimierung in die Toolchain integriert. Sie ermöglichen den Einsatz auf Geräten mit begrenzten Ressourcen, ohne dass die Leistung beeinträchtigt wird. Ergänzend sorgen Verifizierungswerkzeuge wie Polyspace für zusätzliche Zuverlässigkeit, indem sie den generierten Code statisch und dynamisch analysieren, Fehler frühzeitig im Entwicklungszyklus erkennen – oder deren Abwesenheit nachweisen. Gerade in sicherheitskritischen Bereichen sind diese Funktionen von entscheidender Bedeutung, um Compliance und Robustheit zu gewährleisten.
Ein praxisnahes Beispiel für diesen Workflow ist die Temperaturvorhersage für Elektromotoren auf TI C2000-Hardware. Dabei werden virtuelle Sensormodelle in Matlab oder Python entwickelt und trainiert, für den Einsatz komprimiert und mithilfe von Processor-in-the-Loop-Tests validiert. Dieser Ansatz ersetzt physische Sensoren durch softwarebasierte Schätzfunktionen, wodurch Kosten und Komplexität reduziert werden, während die Genauigkeit erhalten bleibt oder sogar zunimmt.
Einsatz in zahlreichen Anwendungsbereichen
Embedded AI findet bereits in zahlreichen Anwendungsbereichen Einsatz: Im Gesundheitswesen wird sie beispielsweise für die Echtzeit-Signalverarbeitung in der EKG-Analyse auf STM32-Boards genutzt. Hierbei werden Deep-Learning- und Signalverarbeitungsalgorithmen kombiniert. Mithilfe automatischer C/C++-Codegenerierung lassen sich Sensordaten in Echtzeit verarbeiten. Auch im Bereich der Arbeitssicherheit kommen eingebettete KI-Lösungen zum Einsatz: Die Erkennung von persönlicher Schutzausrüstung auf Raspberry Pi und die Posenerkennung auf Nvidia Jetson-Plattformen zeigen, wie eingebettete Bildverarbeitung und GPU-Beschleunigung kompakte, leistungsstarke KI-Lösungen für Überwachung und Compliance ermöglichen.
Die genannten Beispiele stehen exemplarisch für einen breiteren Trend: Embedded KI ist nicht länger eine Nischentechnologie, sondern entwickelt sich zu einem Standard für intelligente Systeme in verschiedenen Branchen. Durch strukturierte Workflows und den Einsatz integrierter Toolchains können Ingenieure ihre Entwicklungsprozesse beschleunigen, deren Zuverlässigkeit sicherstellen und die Leistung für Edge-Bereitstellungen optimieren. Da generative KI und fortschrittliche Workflows immer näher an die Edge rücken, werden effiziente Methoden und Optimierung unter Berücksichtigung der Hardware der Schlüssel sein, um ihr volles Potenzial auszuschöpfen.
MathWorks präsentiert Ingenieuren und Entwicklern auf der embedded world vom 10. bis 12. März 2026 in Nürnberg (Halle 4, Stand 110) in einer Reihe von Fachvorträgen unterschiedliche Schwerpunktthemen und Anwendungsszenarien. Am Stand erhalten Besuchende Einblicke in verschiedene Demos, darunter KI-basierte Trajektorienplanung auf Infineon AURIX TC4x, Objektverfolgung auf Qualcomm Snapdragon, KI-basierte Temperaturberechnung für Elektromotoren sowie Echtzeit-Signalverarbeitung auf IoT-Geräten.
Am 28. Januar 2026 findet der Europäische Datenschutztag statt. Chester Wisniewski, Director Global Field CTO bei Sophos, gibt fünf praktische Tipps für mehr Datensicherheit. Im Zentrum steht der Appell, dass jeder Einzelne die Kontrolle über seine persönlichen Daten behalten kann.
Redaktion - 23. Januar 2026
Chester Wisniewski, Director Global Field CTO bei Sophos. (Bild: Sophos)
Der Europäische Datenschutztag am 28. Januar erinnert seit 1981 an die Wichtigkeit des Datenschutzes. Chester Wisniewski von Sophos nutzt den Anlass für einen Appell: «Der Datenschutztag soll uns daran erinnern, wie wichtig Verschlüsselung für den Schutz unserer Daten vor unerwünschter Spionage und Datenschutzverletzungen ist.» Seit den NSA-Enthüllungen durch Edward Snowden vor fast 13 Jahren kämpfe man immer noch um die Einhaltung der End-to-End-Verschlüsselung, zuletzt im Streit um die Chat-Kontrolle.
Problematisch seien Backdoors sowie übermässige Zugriffsrechte. Zahlreiche amerikanische Technologieunternehmen seien von Cyberkriminellen wie LAPSUS$ und Scattered Spider getäuscht worden, indem sich diese als Strafverfolgungsbehörden ausgaben, um vermeintlich «rechtmässigen Zugriff» auf persönliche Daten zu erhalten. Verschlüsselung ermögliche es, genau das zu teilen, was man wann mit wem teilen wolle. Wenn der Nutzer die Kontrolle habe, könne er Daten sicher und mit seiner Zustimmung weitergeben.
Geeignete Passwörter auswählen
Der Sophos-Experte empfiehlt zunächst, alte Passwörter durch neue zu ersetzen, am besten mit einer Zweifaktorauthentifizierung (2FA). Da es sich meist um zahlreiche Zugänge mit jeweils eigenen Passwörtern handle, sei ein Passwort-Manager eine gute Unterstützung zur Erstellung und Verwaltung aller Zugangsdaten. Diese schützten auch vor gefälschten Webseiten, da sie diese erkennen und im Zweifelsfall kein Passwort preisgeben. Die 2FA bereite kaum Umstände, sei aber eine grössere Hürde für Betrüger.
Datenschutzeinstellungen überprüfen
Bei den meisten Betriebssystemen, Apps und Online-Konten kann der Nutzer selbst entscheiden, wie viel er preisgeben möchte. Darf jede App auf dem Smartphone den aktuellen Standort wissen? Will man der Bequemlichkeit halber immer im Lieblings-Online-Konto angemeldet bleiben? Hat die App die Erlaubnis, im Namen des Nutzers Beiträge in seinen sozialen Medien zu veröffentlichen? Da es hier keine übergreifende Einstellungsfunktion für alle Anwendungen gebe, bleibe nur: man müsse jedes Konto prüfen und individuell entscheiden, was man erlaube oder nicht.
Ohne Erlaubnis nichts teilen
Für jeden Nutzer sozialer Medien sollte diese Regel gelten: Bevor ein Foto mit anderen Personen darauf veröffentlicht wird, erst nachfragen, ob das auch in Ordnung ist. Die Informationen darauf könnten nicht nur die Beziehungen zu Familienmitgliedern und Arbeitgebern beeinflussen, sondern auch Cyberkriminellen versehentlich Dinge wie Wohnort, Geburtstag, Urlaube verraten, die sie gegen einen verwenden können – jetzt oder lange Zeit später.
Besondere Vorsicht bei der Arbeit
Auf der Business-Ebene wirke sich diese Regel noch strenger aus: Das Weitergeben von Unternehmensdaten, ob innerbetrieblich, von Kunden oder Lieferanten, könne nicht nur für Cyberkriminelle von hohem Interesse sein, sondern könne zusätzlich juristische Folgen für den Betrieb und den eigenen Arbeitsplatz haben.
Die eigenen Grenzen kennen
Was sind mir die eigenen Daten wert? Mit dieser individuellen Haltung lasse sich jede Anfrage nach persönlichen Informationen klar entscheiden. Kostenersparnisse, Informationen, Bequemlichkeiten, aber auch vertragliche oder rechtliche Absicherungen benötigten mal mehr mal weniger Daten. Es sei an dem Nutzer selbst, hier nachzufragen und im Zweifel Nein zu sagen.
Der 28. Januar erinnert an die Europäische Datenschutzkonvention von 1981, das erste rechtsverbindliche zwischenstaatliche Datenschutzabkommen und internationale Werkzeug zum Schutz personenbezogener Daten.
Schäden durch Fake-President-Betrug vervielfachen sich
Künstliche Intelligenz (KI) spielt Wirtschaftskriminellen in die Hände: Sie werden immer professioneller, schlagen häufiger zu – und richten bei Unternehmen immer grössere finanzielle Schäden an. Schäden bei Unternehmen durch alle Social-Engineering-Betrugsmaschen steigen um 60 %, so die jüngste Statistik von Allianz Trade.
Redaktion - 21. Januar 2026
KI-generierte Betrügereien, etwa in Form von Fake-President-Betrug, nehmen stark zu. (Bild: Depositphotos.com)
Die aktuelle Schadensstatistik von Allianz Trade offenbart ein klares Risiko-Trendbild: 2024 haben sich die finanziellen Schäden durch Fake-President-Betrugsmaschen verdreifacht (+200 %), 2025 stiegen sie um weitere 81 Prozent – trotz rückläufiger Fallzahlen. Auch der Bestellerbetrug erlebt eine Renaissance: Mit einem Schadensanstieg von 139 Prozent und 61 Prozent mehr Fällen hat diese Masche den Zahlungsbetrug als häufigste Social-Engineering-Form abgelöst.
Professionalisierte Täter dank KI
«Wir sehen ein hochdynamisches Katz-und-Maus-Spiel zwischen Angreifern und Unternehmen», erklärt Marie-Christine Kragh, Global Head of Fidelity bei Allianz Trade. «Durch generative KI erreichen Betrugsversuche mittlerweile ein Perfektionsniveau, das selbst bei geschulten Mitarbeitenden kaum Zweifel aufkommen lässt.»
Makellose E-Mails, täuschend echte Deepfake-Videos und realistisch klingende Stimmimitationen erhöhen die Erfolgsquote erheblich. Entsprechend liegen die durchschnittlichen Schäden laut Allianz Trade im einstelligen Millionenbereich; einzelne Fälle erreichen zweistellige Millionenwerte.
Doppelschlag auf Knopfdruck: Phishing trifft Social Engineering
Auch die Eintrittshürden für Cyberkriminelle sinken. «Viele Täter brauchen heute kaum IT-Kompetenzen», sagt Dirk Koch, Certified Ethical Hacker und Partner der Kanzlei ByteLaw. «Im Darknet sind Phishing- und Vishing-Tools günstig verfügbar – oft reicht eine Kombination aus technologisch gestütztem Erstzugriff und manipulativer Anschlusskommunikation, um ein Unternehmen lahmzulegen.» Koch spricht von einem «Schachmatt in zwei Zügen»: Erst der kompromittierte Systemzugang, dann der gezielte Angriff auf Entscheidungs- und Zahlungsprozesse.
Innentäter bleiben das grösste Risiko
Neben externen Angriffen wächst die Bedrohung aus dem eigenen Betrieb. 2025 stammten laut Allianz Trade 65 Prozent der grössten finanziellen Schäden aus internen Fällen. «Die Mehrheit der Verluste geht auf Mitarbeitende zurück – eine unbequeme, aber zentrale Wahrheit», so Kragh. Auffällig sei die wachsende Kreativität: von unterschlagenen Luxusgütern bis hin zu internen «Shop-im-Shop»-Systemen.
Für CFOs und Sicherheitsverantwortliche ergibt sich daraus klarer Handlungsbedarf. Koch empfiehlt die Kombination technischer, organisatorischer und kultureller Verteidigungslinien:
Technische Basis: Phishing-resistente Multi-Faktor-Authentifizierung, verifizierte E-Mail-Signaturen, KI-basierte Filter und Zero-Trust-Architekturen.
Organisatorische Massnahmen: durchgängiges Vier-Augen-Prinzip, Out-of-Band-Bestätigungen bei Zahlungsdatenänderungen, kontinuierliche Prozessanalysen.
Reaktionsfähigkeit: Schnelle Incident-Response-Strukturen, um Rückholungen von Beträgen überhaupt zu ermöglichen.
Mensch als kritischster Faktor
Trotz aller Technologie bleibt der Mensch die zentrale Schwachstelle. Social-Engineering-Angriffe zielen gezielt auf Emotionen ab – Autorität, Druck oder künstlich erzeugte Krisensituationen. «Bei der Kombination aus Zeitdruck, emotionalem Trigger und Aufforderung zum Regelbruch müssen alle Alarmglocken läuten», warnt Kragh. Eine offene Fehlerkultur und klare Kommunikationslinien zwischen Mitarbeitenden und Führungskräften gelten als wirksamster Hebel, um Manipulationsversuche früh zu entlarven.
Das KI-Zeitalter hat für die Netzwerkinfrastruktur von Unternehmen grosse Herausforderungen im Gepäck. Die gute Nachricht: Wer sie meistert, für den eröffnen sich neue Möglichkeiten. Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, nimmt die drei wichtigsten Challenges und Chancen unter die Lupe.
Redaktion - 20. Januar 2026
Der durch KI-Anwendungen hervorgerufene Daten-Traffic bringt Netzwerke an ihre Belastungsgrenzen. (Bild: Depositphotos.com)
Immer mehr Unternehmen setzen auf Software-definierte Netzwerke wie SD-WAN und orchestrieren ihre Infrastruktur über die Cloud, um den Leistungshunger von KI-Anwendungen und -Workloads zu stillen. Doch trotz der Fortschritte in diesen Bereichen prägen drei Herausforderungen diese neue Ära der Konnektivität:
Challenge #1: Systemüberlastung durch hohen Traffic
KI-Cluster treiben Energie- und Bandbreitenanforderungen weit über konventionelle Grenzen hinaus: Ein einzelnes GPU-Rack kann bei der Datenverarbeitung bis zu 100 Kilowatt an Wärmeleistung und einen Traffic von zig Terabits pro Sekunde erzeugen, was enorme Belastungen auf physischer und logischer Ebene verursacht. Physikalisch stoßen Hardware, Verkabelung, Stromversorgung und Kühlung häufig an ihre Grenzen. Die Folge sind Bandbreitenengpässe sowie Hotspots, die die Fehleranfälligkeit erhöhen. Auf logischer Ebene überlastet der massive Datenverkehr Netzwerk- und Softwareinfrastrukturen, wodurch Traffic-Staus, Storage-Engpässe und Sicherheitsrisiken entstehen: Oft sind Cybersecurity-Lösungen für den hohen Datendurchsatz nicht geeignet und erkennen somit Anomalien schlechter.
Challenge #2: Grössere Angriffsfläche am Edge
Edge Computing und die damit verbundene Dezentralisierung sind die Grundvoraussetzung für den agilen Einsatz von KI. Die auf diese Weise deutlich größere und verteiltere IT-Infrastruktur sorgt allerdings für eine große Anzahl neuer Angriffspunkte für Hacker: Jeder Sensor, jedes Gateway und jeder Remote-Server wird so zur potenziellen Schwachstelle, die Kriminelle nutzen können, um etwa Downtimes zu verursachen. Gezielt herbeigeführte Ausfälle an Edge-Standorten sind bei Cyberkriminellen besonders beliebt, um zentrale Systeme zu infiltrieren, während die Verteidiger abgelenkt sind.
Challenge #3: Kaskadierende Ausfälle durch operativen Overload
Obwohl immer mehr Prozesse des Netzwerkmanagements automatisiert ablaufen, steigt die Last für Administratoren drastisch an. Gründe dafür sind unter anderem der Fachkräftemangel und die durch KI- und Edge-Anwendungen steigende Komplexität der Netzwerkinfrastrukturen. Der Faktor Mensch bleibt daher ein kritischer Schwachpunkt, der das Risiko für Fehlkonfigurationen, versäumte oder fehlerhafte Updates und reaktive Wartung infolge operativen Overloads erhöht. Die beiden Optionen, um die daraus resultierenden kaskadierenden Ausfälle abzumildern, sind ein noch höherer Grad an Automatisierung und die Implementierung von OOB (Out-of-Band)-Lösungen.
Dirk Schuma, Sales Manager EMEA North bei Opengear (Quelle: Opengear)
Künstliche Intelligenz sorgt allerdings nicht nur für Challenges, sondern bietet Unternehmen – insbesondere in Verbindung mit Out-of-Band-Netzwerken – neue Chancen, ihre Effizienz, Sicherheit und Resilienz zu steigern:
Chance #1: Weniger Downtimes durch prädiktive Analytik
KI-basierte prädiktive Analysetools helfen Unternehmen, ihre Kapazitätsgrenzen zu erkennen, Ausfälle vorherzusagen und Wartungsfenster zu optimieren. Das Zeitalter des rein reaktiven Netzwerkmanagements neigt sich damit dem Ende zu. Die Integration von NetOps-Automatisierungstools erweitert diese Funktionen, indem sie wiederkehrende Aufgaben übernehmen und Konfigurationsfehler eliminieren – zwei eminente Faktoren bei der Entstehung von Downtimes.
Chance #2: Geringere MTTR durch selbstheilende Netzwerke
KI avanciert zum Schlüssel für zuverlässige und resiliente Netzwerke. Mittlerweile existieren KI-Systeme, die Telemetriedaten analysieren, Anomalien erkennen und automatisiert Wiederherstellungsmaßnahmen einleiten, noch bevor User eine Störung bemerken. Intelligente Out-of-Band-Lösungen ergänzen diese Fähigkeiten, indem sie eine Verbindung zu den Netzwerkressourcen aufrechterhalten, selbst wenn das Produktionsnetzwerk ausfällt. Gemeinsam bilden KI und OOB-Lösungen somit die Grundlage für selbstheilende Netzwerke und reduzieren die mittlere Wiederherstellungszeit (MTTR) drastisch.
Chance #3: Hybride Modelle für Legacy- und KI-native Systeme
Unternehmen, die ihre Netzwerkinfrastruktur fit für die Zukunft machen wollen, müssen die Zuverlässigkeit von Legacy-Netzwerken mit den Benefits KI-gestützter Orchestrierung und Monitoring in Einklang bringen. Echte Modernisierung bedeutet in diesem Zusammenhang nämlich nicht, einfach alte Hard- und Software zu ersetzen, sondern neue Lösungen sinnvoll in bestehende zu integrieren. Out-of-Band-Management hilft Unternehmen dabei, indem es eine universelle Kontrollebene für Legacy- und KI-native Cutting-Edge-Systeme bereitstellt.
„Der Betrieb von KI-Systemen ist für Netzwerkadministratoren Schwerstarbeit und belastet Hard- und Software“, erklärt Dirk Schuma, Sales Manager EMEA North bei Opengear. „Ein echter Gamechanger ist in diesem Zusammenhang die Kombination aus KI-Funktionalität und Out-of-Band-Lösungen, denn sie hat das Potenzial, die Resilienz von Netzwerken deutlich zu steigern.“
Am 31. Oktober 2026 findet im KKL Luzern das 6. Ersthelfer Symposium statt. Die Veranstaltung begleitet einen Unfall von der Ersten Hilfe vor Ort über die Luftrettung bis zur Rehabilitation. Rund 25 Aussteller präsentieren ihre Angebote, während Expertinnen und Experten über Sportverletzungen, Luftrettung, Reha und Dokumentationspflichten referieren.
Redaktion - 19. Januar 2026
Am 31. Oktober 2026 findet im KKL Luzern wiederum das Ersthelfer Symposium statt. (Bild: Jonas Weibel / Ersthelfer Symposium)
Das 6. Ersthelfer Symposium vom 31. Oktober 2026 im KKL Luzern verfolgt einen besonderen Ansatz: Es begleitet einen Unfall hautnah – von der Ersten Hilfe vor Ort am Beispiel einer Sportverletzung über die Luftrettung bis zum teilweise langen Weg zurück ins Leben. Die Veranstaltung richtet sich an alle Ersthelfer:innen, ob Anfänger, Fortgeschrittene oder Profis, ob Samariter, Betriebssanitäter, Sicherheitsbeauftragte, Private oder Blaulichtorganisationen.
Erste Hilfe bei Sportverletzungen
Hanspeter Betschart, Chefarzt der Berit Sportklinik und Chief Medical Officer von Swiss Olympic, spricht über verschiedene Sportverletzungen und die notwendige Erste Hilfe. Dabei geht es nicht nur um Profisportler an Grossanlässen, sondern auch um häufige Verletzungen im Amateursport – beispielsweise bei Grümpelturnieren, wo schon manch ein Kreuzband riss.
Luftrettung im unwegsamen Gelände
Manchmal ist ein Transport mit dem Helikopter unumgänglich – entweder weil es sehr schnell gehen muss oder weil kein anderer Weg zur Unfallstelle führt. Dies betrifft Wanderer, Skifahrer, Forstarbeitende, Landwirte und viele andere. Dr. med. Oliver Reisten, Ärztlicher Leiter der Air Zermatt, erklärt, wie eine Luftrettung abläuft und was Ersthelfer:innen dabei beitragen können und sollen.
Der Weg zurück ins Leben
Häufig wissen Ersthelfer:innen nicht, wie es mit den Patienten weiterging, nachdem die Rettungskräfte übernommen haben. Dr. med. Christian Sturzenegger, Chief Medical Officer der Rehaklinik Bellikon, betreut die Patienten auf ihrem Weg zurück. In seinem Referat erzählt er anhand von Fallbeispielen, was nach einem Eingriff im Akutspital passiert und wie die Patienten zurück ins Leben, in die Familie, in die Gesellschaft und in den Beruf finden.
Dokumentation und Datenschutz
Nach einem Einsatz haben Ersthelfer:innen oftmals noch zu tun. Ganz besonders, wenn ein Unfall im Betrieb passierte, sollten sie ihre Erste Hilfe dokumentieren. Am besten geschieht dies bereits während dem Einsatz mit Hilfe eines Protokolls, wovon sie eine Durchschlagseite dem Rettungsdienst mitgeben. Allerdings dürfen solche Protokolle nicht jedermann zugänglich sein. Roger Berger und Bruno Ducceschi aus dem Vorstand der Schweizerischen Vereinigung für Betriebssanität (SVBS) erklären, wann Ersthelfende ihre Einsätze dokumentieren sollten und auf was sie dabei achten müssen.
Weiterbildung und Rahmenprogramm
Das Ersthelfer Symposium 2026 im Luzerner Saal des KKL Luzern legt viel Wert auf das Rahmenprogramm und weitere Mehrwerte. Nach jedem Vortrag bleiben Raum und Zeit, um Fragen an die Referenten zu stellen. Die Pausen bieten Gelegenheiten für Diskussionen und die Netzwerkpflege, ausserdem präsentieren rund 25 Aussteller ihre Produkte, Kurse oder andere Dienstleistungen. Alle Vorträge werden simultan von Deutsch ins Französische übersetzt. Es werden 3,5 Stunden an das IVR-Zertifikat angerechnet und es gibt 2 SGAS-Fortbildungspunkte.
Im letzten Jahr kamen insgesamt 420 Ersthelfer:innen an das Ersthelfer Symposium im KKL Luzern. Die gemeinsame Veranstaltung der SVBS und von IVF Hartmann findet am 31. Oktober 2026 statt. Weitere Informationen und Anmeldemöglichkeiten gibt es unter ersthelfersymposium.ch. Anmeldeschluss ist der 24. Oktober 2026.
An der NRF 2026 in New York zeigt Google, wie Shopping vom Klickpfad zur Konversation wird – und weshalb der nächste Sprung nicht bei «besserer Suche» endet, sondern bei KI-Assistenten, die Discovery, Checkout und Service in einem Fluss verbinden.
Redaktion - 15. Januar 2026
Die National Retail Federation (NRF) gilt als zentrale Bühne für die «Zukunft des Handels» – mit Fokus auf Technologie, Kundenerlebnis, Omnichannel und Effizienz. In diesem Setting verortet Alphabet- und Google-CEO Sundar Pichai den aktuellen Plattformwechsel klar als AI platform shift.
Der Kern der Google-These: Shopping wird «agentic»
Googles Begriff dafür: agentic commerce – KI-Agenten erledigen Aufgaben stellvertretend, von der Produktsuche bis zur Transaktion und Nachbetreuung. Google CEO Pichai beschreibt dabei einen grundlegenden Wechsel: AI Mode verschiebt die Suche von Keywords zu natürlichen Gesprächen, die KI übernimmt das Vorsortieren. Als Datenbasis nennt Google den Shopping Graph mit über 50 Milliarden Produktlistings; mehr als 2 Milliarden davon werden stündlich aktualisiert.
Was Google konkret ankündigt
1) Das Universal Commerce Protocol (UCP): gemeinsame Sprache
UCP ist ein neuer offener Standard, der als gemeinsame Sprache für KI-Agenten, Händler und Zahlungsanbieter über die gesamte Customer Journey hinweg fungiert. UCP etabliert einen Standard für Agenten und Systeme, um über Nutzeroberflächen, Unternehmen und Zahlungsanbieter hinweg zusammenzuarbeiten. UCP ist branchenübergreifend konzipiert und kompatibel mit bestehenden Protokollen wie Agent2Agent (A2A), Agent Payments Protocol (AP2) und dem Model Context Protocol (MCP). UCP wurde gemeinsam mit Branchenführern wie Shopify, Etsy, Wayfair und Target entwickelt und wird von mehr als 20 weiteren Unternehmen des Commerce-Ökosystems, darunter American Express, Stripe, Visa und Zalando, unterstützt.
Das «Universal Commerce Protocol» (UCP) verbindet AI Mode/Gemini mit den Händler-Backends und standardisiert Schritte wie Discovery, Cart, Identity, Checkout und Order – auf Basis von APIs sowie Standards wie MCP und A2A.Mit dem «Universal Commerce Protocol» (UCP) will Google Agentic Commerce skalierbar machen: Ein offener Standard, getragen von einem breiten Partner-Ökosystem aus Plattformen, Retailern und Payment-Anbietern – von Shopify und Walmart bis Visa, Stripe und Zalando.
2) Business Agent: Marken-Chat direkt in der Google Suche
Neu ist auch der Business Agent: Kund:innen können in Search direkt mit Marken chatten – wie mit einem virtuellen Verkaufsberater, in der «Brand Voice». Aktivierung und Anpassung laufen über den Merchant Center; perspektivisch sind Training mit eigenen Daten, Insights, Offers und direkte Käufe vorgesehen.
Google AI-Commerce: Business Agent
3) Direct Offers: Angebote im AI Mode als neues Ads-Play
Dieses neue Pilotprojekt für Google Ads ermöglicht es Werbetreibenden, exklusive Angebote, wie einen speziellen Rabatt, direkt im KI-Mode für kaufbereite Kund:innen zu präsentieren. Wenn Nutzer:innen Fragen zu Produkten stellen (z. B. nach einem Teppich für ein Esszimmer suchen), kann die KI nicht nur passende Produkte vorschlagen, sondern direkt exklusive Angebote einblenden. Das Ausspielen erfolgt KI-gesteuert: Bei Direct Offers legen Händler in ihren Kampagneneinstellungen fest, welche Angebote sie hervorheben möchten, die KI entscheidet, wann ein Angebot relevant ist.
Google AI-Commerce – Direct Offers
4) Gemini Enterprise for Customer Experience: Shopping + Service als eine Agenten-Plattform
Auf Cloud-Seite kommt Gemini Enterprise for Customer Experience (CX): Google führt eine zentrale Plattform ein, die Shopping und Kundenservice vereint. Dort sind, basierend auf Googles neusten Gemini-Modellen, vorgefertigte und konfigurierbare KI-Agenten verfügbar, die innerhalb weniger Tage von Unternehmen implementiert werden können. Diese Agenten können den gesamten Customer Lifecycle begleiten, vom Entdecken neuer Produkte bis zu Lösungen für mögliche Probleme nach dem Kauf. Der Fokus verschiebt sich hierbei von einfachen Chatbots hin zu proaktiven digitalen Concierges, die unter Aufsicht von Unternehmen eigenständig Probleme lösen und Transaktionen ausführen können. US-Retailer Lowe’s und Kroger gehören zu den ersten Nutzern dieser Agenten-Tools, während Papa Johns als erstes Unternehmen den Omnichannel-Bestellagenten (Food Ordering Agent) von Google Cloud einsetzt.
Vanessa Lee, Shopify
Was heisst das für den Schweizer Detailhandel?
Die NRF-Story von Google lässt sich auf eine einfache Leitfrage verdichten: Wie wird man in AI-Interfaces nicht nur gefunden, sondern wie kommt man zum Abschluss?
1) Produktdaten werden zur «Sprache» der KI
Wenn Shopping konversationell wird, reichen klassische Keyword-Feeds nicht mehr. Produktdaten müssen Fragen beantworten können: Was passt wozu, welche Alternative gibt es, welches Zubehör ist kompatibel – und warum ist das Produkt die richtige Wahl. Genau in diese Richtung geht Googles Merchant-Center-Logik: weg vom reinen Katalog, hin zu einem Datenfundament, das Beratung im Dialog ermöglicht.
2) «Buy where you browse» verkürzt die Journey massiv
Mit UCP und dem Checkout in AI Mode/Gemini rückt Google den Kaufabschluss direkt an den Moment der Recherche heran. Shopping wird damit stärker «in der Konversation» abgeschlossen – weniger Klickpfad, weniger Absprünge, schneller zur Conversion. Für Händler ist das eine Chance, aber auch ein Architektur-Thema: Sobald der Checkout auf Plattformoberflächen stattfindet, muss die Kundenbeziehung trotzdem beim Retailer bleiben.
Darum lohnt sich für Schweizer Händler ein früher Reality-Check: Greifen Loyalty-Mechaniken (Member-Preise, Bonus, Vorteile) bereits im Kaufmoment? Fliessen Transaktionsdaten und Präferenzen sauber ins eigene CRM zurück? Und bleibt der After-Sales-Prozess – von Service bis Re-Engagement – weiterhin in der eigenen Hand? Kurz: Plattform-Checkout kann Abschlüsse beschleunigen. Entscheidend ist, dass er auch die Beziehung stärkt, die danach zählt.
Googles «Shopping Assistant» zeigt, wohin sich Commerce bewegt: Aus einer Anfrage («4. Geburtstag planen») wird ein dialogbasiertes Einkaufserlebnis – inklusive Inspiration, Video, konkreter Produktliste und direktem Weg zur Transaktion.
3) Brand Voice wird operativ
Mit dem Business Agent rückt Google die Marke dorthin, wo Retail am empfindlichsten ist: in den Entscheidungs-Moment. Nicht als Banner, nicht als Claim, sondern als Gesprächspartner. Genau das macht den Shift fürs Branding so brisant: «Brand Voice» wird vom Kommunikations-Asset zur operativen Verkaufsinstanz. Tonalität ist plötzlich nicht mehr etwas, das man in Kampagnen sauber poliert – sie wird zum Conversion-Hebel im Dialog. Wer hier gewinnen will, benötigt mehr als ein Brand Book im PDF: Es braucht ein Agent-Playbook, das Markenführung in Regeln übersetzt. Also in saubere Sprache, klare Produktwahrheiten statt schwammiger Versprechen, definierte No-Gos und eine dialogfähige Brand Safety, die nicht Werbeumfelder schützt, sondern Antworten.
Der «Shopping Assistant» wird zur steuerbaren Retail-Infrastruktur: Im Agent-Builder definieren Händler Gesprächs- und Prozesspfade (Bestellung, Support, Retouren), während «Conversational Insights» in Echtzeit zeigt, was der Assistent leistet – von Containment Rate über CSAT bis zum messbaren Umsatz-Uplift.
Dazu kommt: Kulanz ist Branding – und wird im agentischen Shopping früh «mitkommuniziert». Rückgabe, Umtausch, Garantie oder Lieferfragen sind nicht nur Service-Details, sondern Teil der Markenpersönlichkeit. Und selbst Cross-Selling bekommt eine neue Qualität: nicht als Upsell-Trick, sondern als hilfreiche Beziehungspflege im richtigen Moment, wie ein digitaler Concierge. Für den Schweizer Detailhandel ist das eine Chance, weil die Branche traditionell von Beratung, Verlässlichkeit und Vertrauen lebt – und genau diese Stärken lassen sich nun digital skalieren. Die entscheidende Frage lautet deshalb nicht: «Brauchen wir einen Agent?» Sondern: Wenn unsere Marke künftig spricht – wie soll sie verkaufen?
Fazit
Google präsentiert an der NRF 2026 keinen «Search-Refresh», sondern eine neue Architektur: AI-Search als Assistenz-Interface, UCP als Transaktions-Schicht, Agenten als neue Touchpoints – und Ads als kontextuelle Abschlusshelfer. Für den Schweizer Detailhandel lautet die Aufgabe: Daten, Angebote, Brand Voice und Service so vorbereiten, dass sie in einer agentischen Shopping-Welt funktionieren.
Stefan Riedle wird neuer Quality Director von SAP Schweiz
Per sofort übernimmt Stefan Riedle die Rolle des Quality Director bei SAP Schweiz. Mit Riedle besetzt SAP die Position mit einem ausgewiesenen Qualitätsexperten, der das Unternehmen seit über zwei Jahrzehnten mitgeprägt hat.
Redaktion - 15. Januar 2026
Stefan Riedle, neuer Quality Director bei SAP. (Bild: zVg)
Stefan Riedle ist seit 21 Jahren bei SAP tätig – eine aussergewöhnlich lange Zeitspanne, in der er sich vom Senior Consultant zum zentralen Pfeiler im Qualitätsmanagement entwickelt hat. In verschiedenen Funktionen unterstützte er zahlreiche Grosskunden dabei, Risiken zu minimieren, Qualitätsstandards zu erhöhen und geschäftlichen Mehrwert zu realisieren. Seine tiefe Vertrautheit mit SAP-Technologien, sein analytischer Ansatz und sein breites Netzwerk würden ihn zur idealen Besetzung für die neue Rolle machen, wie es dazu heisst. «Mit Stefan Riedle gewinnt das Schweizer Qualitätsmanagement eine Führungspersönlichkeit, die SAP, unsere Kunden und unsere Prozesse wie kaum ein anderer kennt», unterstreichen denn auch Sabrina Storck und Thomas Schreitmüller, Co-Managing Directors von SAP Schweiz. «Sein analytischer Ansatz, seine Ruhe und seine Fähigkeit, komplexe Sachverhalte verständlich zu machen, sind zentrale Erfolgsfaktoren für die Weiterentwicklung unserer Qualitätsarbeit.»
Nach der Ausbildung am Technischen Gymnasium und an der Hochschule Konstanz Technik, Wirtschaft und Gestaltung (HKTWG) zum Diplominformatiker stieg er bei Océ Document Technologies ins praktische Berufsleben ein. Nach zwei Lehrjahren bei Océ wechselte er zu SAP in der Schweiz, der er bis heute treu geblieben ist. Nach mehreren Jahr im Business Technology Consulting wuchs er in verschiedenen Positionen ins Qualitätsmanagement hinein.
In seiner neuen Funktion möchte Riedle insbesondere drei Schwerpunkte setzen: hohe Qualitätsstandards sicherstellen, die Kundenzufriedenheit weiter steigern und das Vertrauen in SAP langfristig stärken. «Qualität ist für mich kein Endzustand, sondern ein kontinuierlicher Prozess – im Produkt, im Service und in der Zusammenarbeit mit unseren Kunden», sagt Stefan Riedle. «Ich freue mich darauf, gemeinsam mit unserem Team die nächsten Schritte zu gehen.»
Stefan Riedle ist verheiratet, Vater von zwei Kindern und lebt mit seiner Familie in der Ostschweiz. Er verbringt gerne Zeit mit seiner Familie, spielt Billard, praktiziert Jiu-Jitsu und pflegt, wenn noch Zeit überigbleibt, seinen 1992er Ford Bronco. Zudem engagiert er sich in Vereinen, unter anderem in der Jugendarbeit.
Mit dem Rollenwechsel verbunden ist auch der Abschied von Sabine Brändle und Uwe Neuendorf, die beide nach langjährigen Verdiensten für das Qualitätsmanagement von SAP Schweiz in den Ruhestand treten. Sie haben mit Ihrem Engagement und ihrer Professionalität einen entscheidenden Beitrag zur Weiterentwicklung des Active Quality Management-Teams beigetragen.
KI auf dem Prüfstand: Warum 2026 über Betrieb, Skalierung und Governance entscheidet
2026 markiert für viele Unternehmen einen strategischen Wendepunkt. Zentrale Zukunftstechnologien – von Künstlicher Intelligenz über Edge-Computing bis hin zu modernen Datenplattformen – wachsen zu smarten Systemen zusammen. Diese schaffen nicht nur operative Effizienz, sondern eröffnen völlig neue Geschäftsmöglichkeiten. Parallel steigen die Anforderungen an die IT-Infrastruktur deutlich. Dell Technologies zeigt drei Entwicklungen, die 2026 massgeblich bestimmen und Einfluss auf die Planungs- und Investitionsstrategien von Unternehmen nehmen werden.
Redaktion - 14. Januar 2026
2026 wird für viele Unternehmen zum Härtetest für ihre KI-Strategie. (Bild: Depositphotos.com)
Geschwindigkeit ist heute nicht mehr nur eine technologische Leistungskennzahl, sondern auch ein Synonym für die Fähigkeit eines Unternehmens, Geschäftsentscheidungen nahezu in Echtzeit anzupassen. In der Industrie verknüpfen beispielsweise intelligente Systeme kontinuierlich interne Produktionsdaten mit externen Informationen aus Lieferketten oder Märkten. Sie erkennen frühzeitig Risiken wie Maschinenausfälle oder Nachfrageänderungen und passen Pläne automatisch an. So bleiben Produktionslinien flexibel, Ressourcen werden optimal eingesetzt und Lieferzusagen können zuverlässig eingehalten werden. Auch im Finanzwesen profitieren Unternehmen von kontinuierlich aktualisierten Risikomodellen. Transaktionen, Marktbewegungen und Kundenverhalten werden in Echtzeit analysiert, sodass Risikobewertungen laufend neu berechnet werden können. Das erhöht die Reaktionsfähigkeit und Compliance.
Was bedeutet das nun konkret? Dell Technologies wirft einen Blick auf die drei wichtigsten Intrastrukturentwicklungen rund um KI.
Trend Nr. 1: Die IT-Umgebung wandelt sich zur modularen KI-Fabrik
Die Umsetzung von KI-Projekten erfordert eine extrem skalierbare Infrastruktur, was den Investitionsrahmen vieler Unternehmen übersteigt. So kann beispielsweise ein leistungsstarkes GenAI-Modell Hunderte GPUs benötigen. Vor diesem Hintergrund ist ein «Data Center as a Service» eine interessante Alternative. Unternehmen erhalten Zugang zu Rechenleistung auf spezialisierter IT, ohne selbst eine Infrastruktur aufbauen zu müssen. Grundsätzlich hat sich ein hybrider Ansatz bewährt, mit dem sich die Firmen eine Art «KI-Fabrik» aufbauen können. Edge-Systeme übernehmen latenzkritische Aufgaben, zentrale Rechenumgebungen dienen als Trainings- und Managementschicht, während Public-Cloud-Kapazitäten bei weniger sensiblen Informationen zur elastischen Skalierung genutzt werden. Daten werden also nicht mehr pauschal in eine Umgebung verschoben, sondern folgen einem regelbasierten Modell: Wo entsteht der höchste Nutzen? Wo ist das Risiko am geringsten? Wo ist die Verarbeitung wirtschaftlich sinnvoll? Gerade die Token-basierte Ökonomie stellt die lange favorisierte Cloud infrage. Während klassische Anwendungen meist vorhersehbare Rechenlasten erzeugen, variieren KI-Workloads extrem stark. So benötigt ein einfacher Prompt nur wenige hundert Tokens, während eine umfassende Analyse gleich hunderttausende Token verbraucht. Das geht in der Cloud sofort ins Geld. Zugleich gewinnt das Thema digitale Souveränität an Gewicht. Datenverarbeitung und Modelltraining müssen so gestaltet sein, dass Unternehmen ihre Wertschöpfungskette jederzeit selbst kontrollieren können.
Trend Nr. 2: Die KI-Ökonomie erzwingt ein Umdenken bei der Speicherlösung
Der Erfolg von KI-Anwendungen hängt nicht nur von der Rechenleistung, sondern auch von der Effizienz des gesamten KI-Stacks ab. Dazu gehören optimierte Vektordatenbanken, latenzarme Netzwerke, skalierbarer Speicher, intelligente Routing-Mechanismen sowie Sicherheits- und Governance-Layer. Das Ziel besteht darin, Modellaufrufe, Retrieval-Vorgänge und Validierungen so zu organisieren, dass das System nicht nur exakt, sondern auch ressourcenschonend arbeitet. Dabei kommt der Storage-Umgebung eine besondere Rolle zu, da KI-Systeme Datensätze von mehreren hundert Petabyte verwalten. Klassische Speicherarchitekturen wie NAS, SAN oder älterer Direct-Attached Storage stossen angesichts der hohen Anforderungen an Datenaggregation und schnellen Zugriff der Workloads an ihre Grenzen. Aber auch bei einer hyperkonvergenten Infrastruktur kann es zu Engpässen kommen, insbesondere wenn die Daten auf verschiedenen Nodes gespeichert sind. Speicher- und Rechenkomponenten müssen zudem stets gemeinsam erneuert werden, obwohl sie unterschiedliche Modernisierungszyklen haben. KI beschleunigt diesen kostspieligen Kreislauf: GPUs müssen in der Regel bereits nach wenigen Jahren aktualisiert werden, während HDDs deutlich langlebiger sind. Disaggregierte Architekturen bieten hier eine Lösung: Storage- und Compute-Leistung sind entkoppelt. Über ein Netzwerk steht eine gemeinsame Speicherebene bereit, die von allen Systemen gleichzeitig genutzt werden kann.
Trend Nr. 3: Kleine Modelle bringen Intelligenz tief in den operativen Kern
Bei den Sprachmodellen galt lange das Motto «Je grösser, desto besser». Im Unternehmensalltag trifft das jedoch oft nicht zu. Ein gutes Beispiel dafür ist die Fertigung. Small Language Models (SLMs) können schnell in die Produktionsprozesse integriert werden. Anders als grosse KI-Modelle lassen sie sich innerhalb weniger GPU-Stunden für spezifische Aufgaben wie das Erkennen von Abweichungen oder das Auswerten von Wartungsberichten trainieren. Techniken wie die Low-Rank Adaptation (LoRA) helfen dabei, indem sie dedizierte Arbeitsbereiche integrieren, ohne das gesamte Modell neu trainieren zu müssen. Ein entscheidender Vorteil ist zudem der lokale Einsatz: SLMs können direkt auf Edge-Geräten oder in abgeschotteten OT-Umgebungen betrieben werden, wodurch Reaktionszeiten und Sicherheitsrisiken minimiert werden. Grundsätzlich gilt: Mit SLMs sinken Rechenaufwand, Energieverbrauch und Cloud-Kosten spürbar. Gerade für Anwendungen im Bereich der Physical AI sind solche kompakten Modelle unverzichtbar, denn selbstlernende, autonome Roboter würden ohne eingebettete Intelligenz nicht funktionieren. Diese Roboter erkennen beispielsweise beim Warentransport Hindernisse, passen Routen dynamisch an und lernen kontinuierlich aus ihrer Umgebung – ähnlich wie der menschliche Mitarbeiter.
«2026 wird ein Jahr, in dem Unternehmen nicht mehr fragen, ob sie KI einsetzen, sondern wie sie ihre technischen und operativen Strukturen neu denken müssen, damit alles so funktioniert, dass Wertschöpfung entsteht», sagt Tim van Wasen, Geschäftsführer von Dell Technologies DACH. «KI stellt dabei hohe Anforderungen an die IT-Umgebung. Das bedeutet auch, dass Unternehmen die richtige Balance zwischen Geschwindigkeit, Sicherheit und Kosten finden müssen, um die unterschiedlichsten Prioritäten und Ansprüche in Einklang zu bringen.»