Bystronic s'ouvre à de nouveaux marchés dans la technique médicale
Bystronic a annoncé fin janvier la finalisation de l'acquisition de la division Tools for Materials Processing de l'entreprise américaine Coherent Corp. et donne une nouvelle vie à la marque «Rofin».
Rédaction - 2 février 2026
StarCut Tube permet de découper des stents à l'échelle microscopique avec une précision maximale. (Image : Bystronic)
L'entreprise internationale Bystronic, basée en Suisse, est un fournisseur leader de solutions pour le traitement de la tôle et des matériaux. Bystronic combine la technologie de découpe laser, les presses plieuses, l'automatisation et les logiciels avec des applications laser innovantes pour de nouveaux matériaux et processus. L'entreprise procède maintenant à l'acquisition de la division «Tools for Materials Processing» de Coherent Corp. Cette acquisition aidera Bystronic à se développer sur de nouveaux marchés de croissance attrayants tels que la technologie médicale, les semi-conducteurs et la fabrication générale. De plus, le portefeuille de Bystronic sera élargi à de nouvelles applications laser telles que le micro-usinage de matériaux, le marquage, la gravure et le perçage.
Reprise des droits de marque de Rofin
Avec cette acquisition, Bystronic acquiert également les droits de la célèbre marque Rofin, qui continuera à être exploitée dans le cadre de la nouvelle division «Bystronic Rofin». Les technologies laser polyvalentes de Bystronic Rofin permettent de traiter une grande variété de matériaux, notamment le métal, le verre, la céramique, les polymères et les matériaux organiques. En raison de la grande diversité des applications et des matériaux, cette acquisition ouvrira de nouvelles possibilités en matière de recherche et de développement.
Des applications pour un grand nombre de secteurs
«Nous souhaitons la bienvenue à tous les clients, partenaires et collègues de l'entreprise dans notre nouvelle division Bystronic Rofin», déclare Domenico Iacovelli, CEO de Bystronic. «Nous intégrons la technologie pionnière et couronnée de succès de Rofin dans notre portefeuille de produits Bystronic et créons ainsi un large éventail d'applications pour les clients de différents secteurs. Ensemble, nous aiderons nos clients à optimiser et à développer leur production afin qu'ils puissent rester à la pointe sur des marchés de plus en plus concurrentiels».»
Avec environ 400 collaborateurs, la division rentable Bystronic Rofin a réalisé ces dernières années un chiffre d'affaires annuel d'environ 100 millions de dollars US. Le siège social se trouve à Gilching, près de Munich.
LE SCSD 2026 : Qui fixe les règles du jeu du nouveau monde ?
L'avenir numérique de l'Europe se décide ici et maintenant. Les 17 et 18 février 2026, le site de BERNEXPO sera le point de mire d'un débat qui décidera de la sécurité, de la liberté et de l'autodétermination dans l'espace numérique.
Rédaction - 30 janvier 2026
Lors des Swiss Cyber Security Days 2026, les visiteurs trouveront une fois de plus une multitude de réponses aux questions urgentes de la cybersécurité et plus encore. (Image : Thomas Berner)
Sous le slogan «Digital Sovereignty - The New Frontier», les Swiss Cyber Security Days 2026 réunissent des personnalités nationales et internationales afin de trouver des réponses à l'une des questions les plus urgentes de notre époque.
La souveraineté numérique s'impose dans l'agenda politique et économique
La présence des États-Unis d'Amérique au World Economic Forum 2026 a été un signal sans équivoque : la souveraineté, y compris et surtout dans l'espace numérique, continue de se placer au centre des questions de pouvoir géopolitique, économique et social. Dans cette nouvelle réalité, l'indignation n'est pas une stratégie. Ni pour l'Europe, ni pour la Suisse. Les 17 et 18 février 2026, la capitale fédérale sera pendant deux jours au cœur de ce débat. Des conférenciers nationaux et internationaux de premier plan négocieront l'avenir numérique - de manière inconfortable et pertinente, comme le promettent les organisateurs. Car la souveraineté numérique n'est plus depuis longtemps un slogan abstrait, mais une nécessité stratégique. Qui contrôle les données, les infrastructures et les identités ? Qui fixe les normes, conçoit les dépendances ou les résout ? Et comment assurer la liberté, la force d'innovation et la sécurité dans un monde de plus en plus interconnecté, mais fragmenté ?
Des grands noms nationaux et internationaux sur les scènes
Lorsque la souveraineté numérique, la sécurité et la réalité géopolitique se rencontrent, il en résulte un dialogue inspirant de portée internationale. Des personnalités de premier plan issues de la politique, de la technologie, des autorités, de la science et d'organisations internationales se réuniront sur scène pour apporter des réponses aux questions stratégiques centrales concernant l'avenir numérique de l'Europe et de la Suisse. Parmi les orateurs de la SCSD 2026, on peut citer
Florian Schütz, directeur de l'Office fédéral de la cybersécurité BACS, à propos de la cyber-résilience et des mécanismes de protection de l'État
Dr. Cristina Caffarra (EuroStack) sur l'indépendance numérique européenne et l'autonomie stratégique
Frank Karlitschek (Nextcloud) sur les applications open source et les infrastructures numériques souveraines pour les gouvernements et les agences gouvernementales
Dr. Jean-Marc Rickli (GCSP) sur les changements de pouvoir géopolitique à l'ère numérique
Oliver Hoffmann sur l'esprit humain, l'économie mentale et la résilience dans le cyberespace
Touradj Ebrahimi (EPFL) sur l'importance des normes pour la souveraineté technologique
José Neves (Aerospace & Defense Cluster Portugal) sur le rôle des clusters industriels dans l'architecture européenne de l'innovation et de la sécurité
Bruno Giussani, directeur européen de longue date de TED, sur la technologie, la responsabilité sociale et le discours mondial
Nathalie Gratzer (OTAN) sur les architectures de sécurité internationales
Pavlina Pavlova (Nations Unies) sur la cybercriminalité mondiale et les stratégies multilatérales de riposte
Le programme sera complété par des contributions de fedpol, de l'Office fédéral de la justice et de Google sur les e-identités, de la Cyber Division du FBI ainsi que d'autres organisations internationales d'importance centrale en matière de politique de sécurité. Des thèmes d'avenir comme la cryptographie post-quantique et la sécurité de l'IA complètent le programme et montrent clairement quels sont les jalons technologiques à poser aujourd'hui pour rester capable d'agir.
Meilleures pratiques et ateliers pour PME
Les deux "Best Practice Stages" permettront de passer de la classification stratégique à la mise en œuvre concrète. Dans des rapports d'expériences pratiques, des entreprises, des autorités et des fournisseurs de solutions montreront comment des stratégies et des solutions de cybersécurité sont introduites, exploitées et développées avec succès au quotidien - de la sensibilisation des collaborateurs à la mise en place de structures de sécurité durables en passant par la réponse aux incidents.
Les contenus s'adressent aussi bien aux spécialistes et aux cadres des entreprises moyennes et des grandes entreprises qu'aux PME, aux autorités et aux organisations d'utilisateurs. Dans la nouvelle zone PME, des ateliers d'approfondissement sur des thèmes pertinents pour les PME seront en outre proposés avec la Haute école de Lucerne HSLU. Les "Best Practice Stages" et les ateliers de la zone PME complètent ainsi le programme stratégique de la conférence par un élément décisif : des connaissances de mise en œuvre issues de la pratique. Au total, une centaine d'exposants présenteront leurs produits, leurs services et leurs innovations lors des Swiss Cyber Security Days de cette année.
Un besoin d'action évident dans la gestion intelligente des bâtiments
Une étude récente de la ZHAW montre que malgré des attentes élevées, seuls 35% des bâtiments utilisent des solutions de smart building. Le nouvel indice SBM Real Estate & Facility Management Suisse 2025 se situe à 51 points sur 100 - un signal de besoin de rattrapage.
Rédaction - 30 janvier 2026
En matière de gestion intelligente des bâtiments, il reste encore beaucoup à faire, comme le montre une étude. (Image symbolique ; source : Depositphotos.com)
Le Smart Building Management (SBM) est considéré comme la clé pour augmenter l'efficacité énergétique, la rentabilité et la transparence dans l'exploitation des bâtiments. Une étude récente de la ZHAW montre toutefois que malgré des attentes élevées, la mise en œuvre dans la pratique est jusqu'à présent souvent fragmentée.
Un grand potentiel est reconnu
L'étude se base sur une enquête en ligne auprès de 478 spécialistes et cadres de l'immobilier, du Facility Management et des fonctions connexes en Suisse. 78 % des personnes interrogées estiment que le SBM présente un potentiel élevé ou très élevé, notamment en ce qui concerne l'augmentation de l'efficacité du Facility Management ainsi que la réduction de la consommation d'énergie et des émissions de CO₂.
«Le Smart Building Management est arrivé dans la pratique, mais pas encore là où il pourrait être», déclare le professeur Andrea González, responsable du groupe de compétences Smart Building Management à la ZHAW. «De nombreuses organisations utilisent des solutions numériques isolées sans les relier systématiquement ou les piloter de manière stratégique».»
Écart entre les exigences et la réalité
Parallèlement, on constate un écart important entre les exigences et la réalité : le SBM n'est actuellement utilisé que dans environ 35 % des bâtiments connus - souvent de manière ponctuelle et non à l'échelle du portefeuille. Le niveau de maturité reste également faible dans de nombreuses organisations : les solutions isolées prédominent, tandis que les approches intégrées et pilotées par les données constituent l'exception.
Le nouvel indice SBM Real Estate & Facility Management Suisse 2025 se situe à 51 points sur 100 : un signal clair de besoin de rattrapage. Avec l'indice SBM, la ZHAW crée pour la première fois un instrument qui permet de structurer et de comparer le niveau de mise en œuvre du Smart Building Management. Il sert de cadre d'orientation pour les propriétaires, les exploitants et les organisations de Facility Management.
Des coûts d'investissement élevés comme frein
Les principaux obstacles cités par les personnes interrogées sont avant tout les coûts d'investissement élevés, la complexité technique ainsi que l'intégration dans les systèmes existants. De plus, les avantages des solutions de smart building ne sont souvent pas mesurés de manière systématique. «En l'absence d'objectifs clairs, de concepts de mesure et de compétences suffisantes, la valeur ajoutée réelle de la gestion intelligente des bâtiments reste souvent invisible», explique González.
«Nos résultats montrent clairement que plus le degré de maturité de la mise en œuvre est élevé, plus les économies d'énergie, les gains d'efficacité et les objectifs réglementaires sont effectivement atteints», poursuit la responsable de l'étude.
Source et informations complémentaires : www.zhaw.ch
Les cyberattaques augmentent de six pour cent en Suisse
Check Point Software Technologies a publié son rapport sur la cybersécurité 2026. En 2025, 1138 cyberattaques contre des organisations ont été enregistrées en moyenne par semaine en Suisse, soit une augmentation de six pour cent par rapport à l'année précédente. Le secteur des télécommunications est particulièrement touché avec 1662 attaques hebdomadaires.
Rédaction - 29 janvier 2026
Le nombre de cyberattaques a de nouveau augmenté en Suisse. (Image : Ed Hardie / Unsplash.com)
Check Point Software Technologies a publié la 14e édition de son rapport sur la cybersécurité. Les chercheurs en sécurité de l'entreprise y résument les évolutions mondiales des cyberattaques en 2025 par rapport à l'année précédente. Les chiffres pour la Suisse montrent une augmentation de six pour cent : chaque semaine, 1138 attaques en moyenne ont visé des organisations et des entreprises.
Les télécommunications les plus touchées
Le secteur des télécommunications est particulièrement ciblé par les cybercriminels, avec 1662 attaques hebdomadaires. Le commerce de détail arrive en deuxième position avec 1440 attaques par semaine, suivi par l'administration publique avec une moyenne de 1336 attaques par semaine.
«En comparaison avec les autres pays, avec 14% d'augmentation en Allemagne et 12% en Autriche, les chiffres pour la Suisse sont presque modérés, mais on ne peut pas parler de fin d'alerte», explique Marco Pierro, Country Manager Suisse chez Check Point Software Technologies. «La situation de la menace s'aggrave avec l'utilisation de l'IA par les cybercriminels. Les organisations et entreprises suisses représentent des cibles de grande valeur pour les cybercriminels et les résultats autour de l'utilisation de campagnes intégrées se distinguent particulièrement».»
Les cyber-attaques dirigées par l'IA se multiplient
Le rapport souligne l'évolution vers des campagnes d'attaques intégrées sur plusieurs canaux. Cette approche combine la tromperie et l'automatisation automatique. Les entreprises du monde entier ont été exposées en moyenne à 1968 cyberattaques par semaine au cours de l'année écoulée, soit une augmentation de 18 % par rapport à 2024 et de 70 % depuis 2023.
Les attaquants utilisent les possibilités offertes par l'automatisation et l'intelligence artificielle pour se déplacer plus rapidement dans les systèmes, pour évoluer plus facilement et pour opérer sur plusieurs surfaces d'attaque simultanément. «L'IA change les mécanismes des cyber-attaques et pas seulement leur ampleur», explique Lotem Finkelstein, vice-président de la recherche chez Check Point Software. «Nous observons que les attaquants passent d'opérations purement manuelles à un niveau d'automatisation de plus en plus élevé. Nous trouvons également les premiers signes de techniques autonomes».»
Nouvelles tactiques d'attaque
Le rapport identifie plusieurs évolutions centrales : L'IA est de plus en plus intégrée dans les processus de travail des attaquants, accélérant le renseignement, l'ingénierie sociale et la prise de décision opérationnelle. Sur une période de trois mois, 89 % des entreprises ont été confrontées à des demandes d'IA à risque, environ une demande sur 41 étant considérée comme à haut risque.
L'écosystème des ransomwares s'est décentralisé en groupes plus petits et spécialisés, ce qui a entraîné une augmentation de 53 % des victimes extorquées par rapport à l'année précédente. Le nombre de nouveaux groupes de ransomware-as-a-service a augmenté de 50 %. L'ingénierie sociale s'étend de plus en plus au-delà de la messagerie électronique. Les techniques ClickFix ont augmenté de 500 % l'année dernière et utilisent des invites techniques frauduleuses pour manipuler les utilisateurs.
Les appareils Edge non surveillés, les appliances VPN et les systèmes IoT sont de plus en plus utilisés comme points de relais opérationnels pour s'immiscer dans le trafic réseau légitime. Une analyse menée par Lakera a identifié des vulnérabilités de sécurité sur 40% des 10’000 serveurs MCP (Model Context Protocol) examinés.
Recommandations pour les entreprises
Check Point recommande aux entreprises de réviser leurs bases de sécurité pour l'ère de l'IA. Les contrôles des réseaux, des points finaux, du cloud, de la messagerie et du SASE devraient être réévalués afin de stopper rapidement les attaques autonomes et coordonnées. Il est également important de contrôler l'utilisation autorisée et non autorisée de l'IA et de la rendre transparente.
Les stratégies de sécurité doivent protéger l'espace de travail où se croisent la confiance humaine et l'automatisation pilotée par l'IA. Un inventaire et une sécurisation actifs des appareils de périphérie, des appliances VPN et des systèmes IoT contribuent à empêcher les menaces cachées. Les attaques se déroulant à la vitesse de la machine, la sécurité préventive est essentielle pour stopper les menaces avant qu'elles ne provoquent des mouvements latéraux, des pertes de données ou du chantage.
IA embarquée : l'intelligence artificielle pour des décisions décentralisées en périphérie de réseau
L'IA embarquée déplace l'intelligence artificielle du cloud directement vers les appareils en périphérie du réseau. Cette évolution est stimulée par un matériel à faible consommation d'énergie, un traitement local des données et une prise de décision en temps réel. Les techniques avancées de compression et d'optimisation deviennent de plus en plus indispensables dans ce contexte.
Rédaction - 28 janvier 2026
Génération automatique de code par Matlab. (Source : MathWorks)
L'IA embarquée devient de plus en plus un moteur central des systèmes de périphérie modernes. Grâce à cette technologie, l'intelligence artificielle se déplace du cloud directement là où elle est nécessaire - sur les appareils en périphérie du réseau. Le matériel embarqué à faible consommation d'énergie permet de réaliser des économies de coûts et d'énergie. Le traitement local protège les données et permet un fonctionnement hors ligne, tandis que l'IA en périphérie favorise la prise de décision en temps réel avec une latence minimale. Cela est nécessaire pour les systèmes autonomes et l'automatisation industrielle.
Un marché en pleine croissance grâce à un matériel spécialisé
Le marché de l'IA embarquée connaît une croissance rapide, portée par des composants matériels spécialisés comme les unités de traitement neuronal (NPU) et des architectures hétérogènes qui sont de plus en plus souvent intégrées directement dans les microcontrôleurs et les systèmes sur puce (SoC). Les ingénieurs sont ainsi confrontés au défi d'utiliser des modèles complexes sur des appareils disposant de ressources limitées en termes de mémoire et de calcul. Des techniques telles que la quantification, le pruning et d'autres méthodes de compression de modèles sont donc essentielles. Outre le matériel, des bibliothèques et des outils performants prennent de plus en plus d'importance pour rendre l'IA utilisable de manière fiable sur différentes plates-formes.
Un exemple concret de cette tendance est la combinaison de la reconnaissance des mots de réveil avec la reconnaissance et le suivi des objets sur les plates-formes Snapdragon de Qualcomm. Des réseaux basés sur YOLOX sont utilisés pour la reconnaissance d'objets, l'inférence étant transférée sur le NPU Hexagon. La NPU n'est activée qu'en cas de besoin, si un mot de réveil correspondant (signal audio) a été donné auparavant et que celui-ci a été reconnu par une deuxième NPU moins gourmande en énergie. Cette approche montre comment des architectures hétérogènes combinant une NPU à faible consommation d'énergie et un DSP hexagonal permettent de réaliser des tâches de traitement d'images en temps réel tout en maintenant l'efficacité énergétique.
Génération de code avec le deep learning. (Source : MathWorks)
Shift Left pour une IA intelligente
Avec la complexité croissante de l'IA embarquée, le besoin de processus de flux de travail clairement structurés augmente également. Le Model-Based Design offre un cadre pour cela : Au lieu d'écrire du code de bas niveau, les ingénieurs modélisent visuellement leurs algorithmes dans Simulink. Les exigences, les modèles et les artefacts de test sont ainsi réunis dans un fil d'actualité numérique unique, ce qui favorise la collaboration et la traçabilité tout au long du cycle de vie du produit.
L'un des principaux avantages de cette approche réside dans la validation précoce. Les tests Hardware-in-the-Loop (HIL) et Processor-in-the-Loop (PIL) permettent de détecter les problèmes potentiels à un stade précoce et d'accélérer le développement, conformément au principe «Shift Left». Le fonctionnement de cette approche peut être expliqué à l'aide d'un exemple tiré du secteur automobile. Dans le cadre de la planification et de la commande de trajectoires basées sur l'IA sur Infineon AURIX TC4x, les commandes de réseaux neuronaux sont conçues et validées avant leur utilisation à l'aide du Model-Based Design. En utilisant une unité de traitement parallèle (PPU) sur le matériel, cette solution permet d'obtenir une précision supérieure de 50 % et des économies d'énergie de 5 % par rapport aux approches traditionnelles - un exemple de la manière dont les flux de travail structurés et l'optimisation consciente du matériel offrent des avantages tangibles.
De Matlab au microcontrôleur
MathWorks offre un environnement intégré pour le développement et le déploiement de l'IA sur des systèmes embarqués. Les ingénieurs peuvent concevoir et entraîner leurs modèles dans Matlab ou importer des modèles déjà entraînés à partir de frameworks tels que PyTorch, TensorFlow et ONNX. À l'aide d'outils de génération automatique de code comme Matlab Coder et GPU Coder, ces modèles peuvent être traduits en code C, C++, CUDA ou HDL optimisé pour les CPU, GPU, FPGA et MCU. De cette manière, l'écart entre la conception de haut niveau et l'implémentation matérielle est comblé.
En outre, des flux de travail d'optimisation pour la quantification, le pruning et la compression sont intégrés dans la chaîne d'outils. Ils permettent une utilisation sur des appareils aux ressources limitées sans que les performances en soient affectées. En complément, des outils de vérification comme Polyspace assurent une fiabilité supplémentaire en analysant le code généré de manière statique et dynamique, en détectant les erreurs à un stade précoce du cycle de développement - ou en prouvant leur absence. Ces fonctions sont particulièrement importantes dans les domaines où la sécurité est critique, afin de garantir la conformité et la robustesse.
Un exemple pratique de ce flux de travail est la prédiction de la température des moteurs électriques sur le matériel TI C2000. Pour ce faire, des modèles de capteurs virtuels sont développés et entraînés dans Matlab ou Python, comprimés pour l'utilisation et validés à l'aide de tests processor-in-the-loop. Cette approche remplace les capteurs physiques par des fonctions d'estimation basées sur le logiciel, ce qui réduit les coûts et la complexité tout en conservant, voire en augmentant, la précision.
Utilisation dans de nombreux domaines d'application
L'IA embarquée est déjà utilisée dans de nombreux domaines d'application : dans le secteur de la santé, elle est par exemple utilisée pour le traitement du signal en temps réel dans l'analyse de l'ECG sur des cartes STM32. Des algorithmes d'apprentissage en profondeur et de traitement du signal sont combinés à cet effet. Les données des capteurs peuvent être traitées en temps réel à l'aide de la génération automatique de code C/C++. Les solutions d'IA embarquées sont également utilisées dans le domaine de la sécurité au travail : la reconnaissance des équipements de protection individuelle sur Raspberry Pi et la reconnaissance des poses sur les plateformes Nvidia Jetson montrent comment le traitement d'image embarqué et l'accélération GPU permettent de créer des solutions d'IA compactes et puissantes pour la surveillance et la conformité.
Les exemples cités illustrent une tendance plus large : l'IA embarquée n'est plus une technologie de niche, mais devient un standard pour les systèmes intelligents dans différents secteurs. Grâce à des flux de travail structurés et à l'utilisation de chaînes d'outils intégrées, les ingénieurs peuvent accélérer leurs processus de développement, garantir leur fiabilité et optimiser les performances pour les déploiements en périphérie. À mesure que l'IA générative et les workflows avancés se rapprochent de l'edge, des méthodes efficaces et une optimisation tenant compte du matériel seront la clé pour en exploiter tout le potentiel.
MathWorks présentera aux ingénieurs et aux développeurs, lors du salon embedded world qui se tiendra à Nuremberg du 10 au 12 mars 2026 (hall 4, stand 110), une série de conférences spécialisées sur différents thèmes et scénarios d'application. Sur le stand, les visiteurs auront un aperçu de différentes démonstrations, dont la planification de trajectoires basée sur l'IA sur Infineon AURIX TC4x, le suivi d'objets sur Qualcomm Snapdragon, le calcul de température basé sur l'IA pour les moteurs électriques ainsi que le traitement de signaux en temps réel sur les appareils IoT.
Cinq conseils pour une meilleure protection des données au quotidien
Le 28 janvier 2026 aura lieu la Journée européenne de la protection des données. Chester Wisniewski, directeur mondial de la technologie de terrain chez Sophos, donne cinq conseils pratiques pour améliorer la sécurité des données. Au centre, un appel à ce que chaque individu puisse garder le contrôle de ses données personnelles.
Rédaction - 23 janvier 2026
Chester Wisniewski, directeur mondial de la technologie de terrain chez Sophos. (Image : Sophos)
La Journée européenne de la protection des données, le 28 janvier, rappelle depuis 1981 l'importance de la protection des données. Chester Wisniewski de Sophos profite de l'occasion pour lancer un appel : «La Journée de la protection des données doit nous rappeler l'importance du chiffrement pour protéger nos données contre l'espionnage indésirable et les atteintes à la vie privée». Depuis les révélations de la NSA par Edward Snowden il y a près de 13 ans, on se bat toujours pour que le chiffrement de bout en bout soit respecté, la dernière fois lors de la dispute sur le contrôle du chat.
Les backdoors et les droits d'accès excessifs posent problème. De nombreuses entreprises technologiques américaines ont été trompées par des cybercriminels comme LAPSUS$ et Scattered Spider, qui se sont fait passer pour des autorités de poursuite pénale afin d'obtenir un «accès légitime» à des données personnelles. Le cryptage permet de partager exactement ce que l'on veut, quand on veut et avec qui. Si l'utilisateur a le contrôle, il peut partager des données en toute sécurité et avec son consentement.
Choisir des mots de passe appropriés
L'expert de Sophos recommande tout d'abord de remplacer les anciens mots de passe par de nouveaux, de préférence avec une authentification à deux facteurs (2FA). Comme il s'agit la plupart du temps de nombreux accès avec chacun son propre mot de passe, un gestionnaire de mots de passe serait un bon support pour créer et gérer toutes les données d'accès. Ils protègent également contre les sites web falsifiés, car ils les reconnaissent et ne révèlent aucun mot de passe en cas de doute. Le système 2FA ne pose guère de problème, mais constitue un obstacle plus important pour les fraudeurs.
Vérifier les paramètres de protection des données
La plupart des systèmes d'exploitation, des applications et des comptes en ligne permettent à l'utilisateur de décider lui-même de la quantité de données qu'il souhaite divulguer. Chaque application sur le smartphone peut-elle connaître la position actuelle ? Veut-on rester connecté à son compte en ligne préféré pour des raisons de commodité ? L'application a-t-elle l'autorisation de publier des messages au nom de l'utilisateur dans ses médias sociaux ? Comme il n'existe pas de fonction de réglage générale pour toutes les applications, la seule chose à faire est de vérifier chaque compte et de décider individuellement de ce que l'on autorise ou non.
Ne rien partager sans autorisation
Cette règle devrait s'appliquer à tous les utilisateurs de médias sociaux : Avant de publier une photo avec d'autres personnes dessus, il faut d'abord s'assurer que c'est bien le cas. Les informations qu'elle contient pourraient non seulement influencer les relations avec les membres de la famille et les employeurs, mais aussi révéler par inadvertance à des cybercriminels des éléments tels que le lieu de résidence, l'anniversaire, les vacances, qu'ils pourraient utiliser contre vous - maintenant ou longtemps après.
Attention particulière au travail
Au niveau de l'entreprise, cette règle est encore plus stricte : La transmission de données d'entreprise, qu'il s'agisse de données internes, de clients ou de fournisseurs, peut non seulement présenter un grand intérêt pour les cybercriminels, mais aussi avoir des conséquences juridiques pour l'entreprise et le propre poste de travail.
Connaître ses propres limites
Quelle est la valeur de mes propres données ? Cette attitude individuelle permet de décider clairement de chaque demande d'informations personnelles. Les économies de coûts, les informations, le confort, mais aussi les garanties contractuelles ou juridiques nécessitent parfois plus de données, parfois moins. C'est à l'utilisateur lui-même de poser la question et de dire non en cas de doute.
Le 28 janvier commémore la Convention européenne sur la protection des données de 1981, premier accord intergouvernemental juridiquement contraignant en matière de protection des données et outil international pour la protection des données à caractère personnel.
Les dommages causés par les arnaques aux faux résidents se multiplient
L'intelligence artificielle (IA) fait le jeu des criminels économiques : ils deviennent de plus en plus professionnels, frappent plus souvent - et causent des dommages financiers toujours plus importants aux entreprises. Les dommages causés aux entreprises par toutes les formes d'escroquerie liées à l'ingénierie sociale augmentent de 60 %, selon les dernières statistiques d'Allianz Trade.
Rédaction - 21 janvier 2026
Les escroqueries générées par l'IA, par exemple sous la forme d'escroquerie au faux président, sont en forte augmentation. (Image : Depositphotos.com)
Les dernières statistiques de dommages d'Allianz Trade révèlent une tendance claire en matière de risques : en 2024, les dommages financiers causés par les escroqueries au faux résident ont triplé (+200 %), et en 2025, ils ont encore augmenté de 81 pour cent - malgré un nombre de cas en baisse. La fraude à la commande connaît également une renaissance : avec une augmentation des dommages de 139% et 61% de cas supplémentaires, cette arnaque a remplacé la fraude au paiement comme forme d'ingénierie sociale la plus fréquente.
Des délinquants professionnalisés grâce à l'IA
«Nous assistons à un jeu du chat et de la souris très dynamique entre les attaquants et les entreprises», explique Marie-Christine Kragh, Global Head of Fidelity chez Allianz Trade. «Grâce à l'IA générative, les tentatives de fraude atteignent désormais un niveau de perfection qui ne laisse guère de place au doute, même pour des collaborateurs bien formés».»
Des e-mails impeccables, des vidéos deepfake à l'apparence trompeuse et des imitations de voix à la sonorité réaliste augmentent considérablement le taux de réussite. En conséquence, selon Allianz Trade, les dommages moyens sont de l'ordre de millions à un chiffre ; certains cas atteignent des valeurs à deux chiffres en millions.
Coup double en un clic : le phishing rencontre l'ingénierie sociale
Les barrières à l'entrée pour les cybercriminels diminuent également. «Aujourd'hui, de nombreux délinquants n'ont guère besoin de compétences informatiques», explique Dirk Koch, Certified Ethical Hacker et partenaire du cabinet ByteLaw. «Sur le Darknet, les outils de phishing et de vishing sont disponibles à bas prix - il suffit souvent d'une combinaison d'accès initial assisté par la technologie et de communication de connexion manipulatrice pour paralyser une entreprise». Koch parle d'un «échec et mat en deux coups» : D'abord l'accès au système compromis, ensuite l'attaque ciblée sur les processus de décision et de paiement.
Les délinquants internes restent le plus grand risque
Outre les attaques externes, la menace provenant de l'entreprise elle-même augmente. En 2025, 65 % des pertes financières les plus importantes proviendraient de cas internes, selon Allianz Trade. «La majorité des pertes sont dues aux collaborateurs - une vérité inconfortable mais centrale», explique Kragh. Ce qui est frappant, c'est la créativité croissante : des produits de luxe détournés aux systèmes internes de «shop in shop».
Prévention : une architecture de sécurité à plusieurs niveaux est nécessaire
Pour les directeurs financiers et les responsables de la sécurité, il est donc clairement nécessaire d'agir. Koch recommande de combiner les lignes de défense techniques, organisationnelles et culturelles :
Base technique : Authentification multi-facteurs résistante au phishing, signatures d'e-mails vérifiées, filtres basés sur l'IA et architectures zéro-trust.
Mesures organisationnelles : un système de Principe du double contrôle, confirmations hors bande en cas de modification des données de paiement, analyses continues des processus.
Réactivité : des structures de réponse rapide aux incidents, afin de permettre la récupération des montants.
L'homme, le facteur le plus critique
Malgré toute la technologie, l'homme reste le point faible central. Les attaques de social engineering visent de manière ciblée les émotions - l'autorité, la pression ou les situations de crise créées artificiellement. «La combinaison de la pression du temps, du déclencheur émotionnel et de l'invitation à enfreindre les règles doit faire sonner toutes les alarmes», prévient Kragh. Une culture de l'erreur ouverte et des lignes de communication claires entre les collaborateurs et les cadres sont considérées comme le levier le plus efficace pour démasquer rapidement les tentatives de manipulation.
L'IA pèse sur les réseaux et les renforce à la fois
L'ère de l'IA présente de grands défis pour l'infrastructure réseau des entreprises. La bonne nouvelle, c'est que ceux qui les relèvent voient s'ouvrir de nouvelles opportunités. Opengear, fournisseur de solutions de gestion hors bande pour la protection des infrastructures critiques, passe en revue les trois principaux défis et opportunités.
Rédaction - 20 janvier 2026
Le trafic de données généré par les applications d'intelligence artificielle pousse les réseaux à leurs limites. (Image : Depositphotos.com)
De plus en plus d'entreprises adoptent des réseaux définis par logiciel comme le SD-WAN et orchestrent leur infrastructure via le cloud pour répondre à la soif de performance des applications et des charges de travail de l'IA. Mais malgré les progrès réalisés dans ces domaines, trois défis caractérisent cette nouvelle ère de la connectivité :
Challenge #1 : surcharge du système due à un trafic élevé
Les clusters d'IA poussent les exigences en matière d'énergie et de bande passante bien au-delà des limites conventionnelles : un seul rack de GPU peut générer jusqu'à 100 kilowatts de puissance thermique lors du traitement des données et un trafic de plusieurs dizaines de térabits par seconde, ce qui entraîne d'énormes contraintes au niveau physique et logique. Sur le plan physique, le matériel, le câblage, l'alimentation électrique et le refroidissement atteignent souvent leurs limites. Il en résulte des goulots d'étranglement de la bande passante ainsi que des points chauds qui augmentent le risque d'erreurs. Au niveau logique, le trafic massif de données surcharge les infrastructures réseau et logicielles, ce qui entraîne des congestions de trafic, des goulots d'étranglement au niveau du stockage et des risques de sécurité : Souvent, les solutions de cybersécurité ne sont pas adaptées au débit élevé de données et détectent donc moins bien les anomalies.
Challenge #2 : surface d'attaque plus grande à l'Edge
L'Edge Computing et la décentralisation qui en découle sont la condition de base pour une utilisation agile de l'IA. Cependant, l'infrastructure informatique ainsi considérablement élargie et répartie crée un grand nombre de nouveaux points d'attaque pour les pirates : chaque capteur, chaque passerelle et chaque serveur distant devient un point faible potentiel que les criminels peuvent utiliser pour provoquer des temps d'arrêt. Les pannes ciblées sur les sites de périphérie sont particulièrement appréciées des cybercriminels pour infiltrer les systèmes centraux pendant que les défenseurs sont distraits.
Challenge #3 : Pannes en cascade dues à une surcharge opérationnelle
Bien que de plus en plus de processus de gestion de réseau soient automatisés, la charge de travail des administrateurs augmente de manière drastique. Cela s'explique notamment par la pénurie de personnel qualifié et la complexité croissante des infrastructures réseau due aux applications d'intelligence artificielle et de périphérie. Le facteur humain reste donc un point faible critique qui augmente le risque de configurations erronées, de mises à jour manquées ou incorrectes et de maintenance réactive suite à une surcharge opérationnelle. Les deux options pour atténuer les pannes en cascade qui en résultent sont un degré d'automatisation encore plus élevé et la mise en œuvre de solutions OOB (Out-of-Band).
Dirk Schuma, directeur des ventes EMEA Nord chez Opengear (Source : Opengear)
Toutefois, l'intelligence artificielle n'est pas seulement source de défis, elle offre également aux entreprises - en particulier lorsqu'elle est associée à des réseaux hors bande - de nouvelles opportunités d'améliorer leur efficacité, leur sécurité et leur résilience :
Chance #1 : moins de temps d'arrêt grâce à l'analyse prédictive
Les outils d'analyse prédictive basés sur l'IA aident les entreprises à identifier leurs limites de capacité, à prédire les pannes et à optimiser les fenêtres de maintenance. L'ère de la gestion de réseau purement réactive touche ainsi à sa fin. L'intégration d'outils d'automatisation NetOps étend ces fonctions en prenant en charge les tâches récurrentes et en éliminant les erreurs de configuration, deux facteurs éminents dans l'apparition des temps d'arrêt.
Opportunité #2 : réduction du MTTR grâce aux réseaux auto-cicatrisants
L'IA devient la clé de la fiabilité et de la résilience des réseaux. Il existe aujourd'hui des systèmes d'IA qui analysent les données télémétriques, détectent les anomalies et prennent des mesures de récupération automatisées avant même que les utilisateurs ne remarquent une panne. Les solutions intelligentes hors bande complètent ces capacités en maintenant une connexion aux ressources du réseau, même lorsque le réseau de production est en panne. Ensemble, l'IA et les solutions OOB constituent donc la base des réseaux auto-réparateurs et réduisent considérablement le temps moyen de rétablissement (MTTR).
Chance #3 : modèles hybrides pour systèmes natifs d'héritage et d'IA
Les entreprises qui souhaitent préparer leur infrastructure réseau pour l'avenir doivent concilier la fiabilité des réseaux existants avec les avantages de l'orchestration et de la surveillance basées sur l'IA. Dans ce contexte, une véritable modernisation ne consiste pas simplement à remplacer l'ancien matériel et les logiciels, mais à intégrer judicieusement les nouvelles solutions dans l'existant. La gestion hors bande aide les entreprises à atteindre cet objectif en fournissant un niveau de contrôle universel pour les systèmes d'héritage et d'intelligence artificielle.
„L'exploitation de systèmes d'IA est un travail difficile pour les administrateurs de réseau et met à rude épreuve le matériel et les logiciels“, explique Dirk Schuma, directeur des ventes EMEA Nord chez Opengear. „Dans ce contexte, la combinaison des fonctionnalités de l'IA et des solutions hors bande est un véritable gamechanger, car elle a le potentiel d'augmenter considérablement la résilience des réseaux“.“
Symposium des premiers intervenants 2026 : L'accident à fleur de peau !
Le 31 octobre 2026, le KKL Luzern accueillera le 6e symposium sur les premiers secours. La manifestation accompagne un accident depuis les premiers secours sur place jusqu'à la rééducation en passant par le sauvetage aérien. Quelque 25 exposants présenteront leurs offres, tandis que des experts parleront des blessures sportives, du sauvetage aérien, de la rééducation et des obligations en matière de documentation.
Rédaction - 19 janvier 2026
Le 31 octobre 2026, le KKL Luzern accueillera à nouveau le symposium des premiers secours. (Photo : Jonas Weibel / Symposium des premiers secours)
Le 6e symposium des premiers secours, qui se tiendra le 31 octobre 2026 au KKL Luzern, adopte une approche particulière : il suit un accident de près - des premiers secours sur place, à l'exemple d'une blessure sportive, au sauvetage aérien et au retour à la vie, parfois long. La manifestation s'adresse à tous les secouristes, qu'ils soient débutants, avancés ou professionnels, qu'il s'agisse de samaritains, de sanitaires d'entreprise, de chargés de sécurité, de particuliers ou d'organisations à feu bleu.
Premiers secours en cas de blessures sportives
Hanspeter Betschart, médecin-chef de la clinique du sport Berit et Chief Medical Officer de Swiss Olympic, parle de différentes blessures sportives et des premiers secours nécessaires. Il ne s'agit pas seulement de sportifs professionnels lors de grandes manifestations, mais aussi de blessures fréquentes dans le sport amateur - par exemple lors de tournois de football, où plus d'un ligament croisé s'est déjà déchiré.
Sauvetage aérien en terrain difficile
Parfois, le transport par hélicoptère est inévitable, soit parce qu'il doit être très rapide, soit parce qu'aucun autre chemin ne mène au lieu de l'accident. Cela concerne les randonneurs, les skieurs, les forestiers, les agriculteurs et bien d'autres. Le Dr Oliver Reisten, directeur médical d'Air Zermatt, explique comment se déroule un sauvetage aérien et ce que les secouristes peuvent et doivent faire.
Le chemin du retour à la vie
Souvent, les premiers intervenants ne savent pas ce qu'il est advenu des patients après l'arrivée des secours. Le Dr Christian Sturzenegger, Chief Medical Officer de la clinique de rééducation de Bellikon, accompagne les patients sur leur chemin de retour. Dans son exposé, il raconte à l'aide d'exemples de cas ce qui se passe après une intervention à l'hôpital de soins aigus et comment les patients retrouvent leur vie, leur famille, la société et leur travail.
Documentation et protection des données
Après une intervention, les secouristes ont souvent encore du travail. En particulier si un accident s'est produit dans l'entreprise, ils doivent documenter leurs premiers secours. Le mieux est de le faire pendant l'intervention à l'aide d'un protocole dont ils remettent une copie aux services de secours. Ces protocoles ne doivent toutefois pas être accessibles à tout le monde. Roger Berger et Bruno Ducceschi, membres du comité de l'Association suisse des sanitaires d'entreprise (ASSE), expliquent quand les secouristes doivent documenter leurs interventions et à quoi ils doivent faire attention.
Formation continue et programme-cadre
Le Symposium des premiers secours 2026, qui se tiendra dans la salle lucernoise du KKL Luzern, accorde une grande importance au programme-cadre et à d'autres valeurs ajoutées. Après chaque exposé, il reste de la place et du temps pour poser des questions aux intervenants. Les pauses seront l'occasion de discuter et d'entretenir le réseau. En outre, quelque 25 exposants présenteront leurs produits, cours ou autres services. Toutes les conférences seront traduites simultanément de l'allemand vers le français. Trois heures et demie seront prises en compte pour le certificat IAS et deux points de formation continue seront attribués par la SSST.
L'année dernière, 420 secouristes ont participé au symposium des secouristes au KKL Luzern. La manifestation commune de l'ASFS et d'IVF Hartmann aura lieu le 31 octobre 2026. Pour plus d'informations et pour s'inscrire, rendez-vous sur symposium des premiers secours.ch. La date limite d'inscription est le 24 octobre 2026.
Lors de la NRF 2026 à New York, Google montre comment le shopping passe d'un parcours de clics à une conversation - et pourquoi le prochain saut ne s'arrête pas à une «meilleure recherche», mais à des assistants IA qui relient la découverte, le passage en caisse et le service en un seul flux.
Rédaction - 15 janvier 2026
La National Retail Federation (NRF) est considérée comme la scène centrale pour «l'avenir du commerce» - avec un accent sur la technologie, l'expérience client, l'omnicanal et l'efficacité. Dans ce contexte, le CEO d'Alphabet et de Google, Sundar Pichai, situe clairement le changement de plateforme actuel comme un AI platform shift.
Le cœur de la thèse de Google : le shopping devient «agentique»
Le terme de Google pour cela : agentic commerce - des agents IA effectuent des tâches à la place de l'utilisateur, de la recherche de produits à la transaction et au suivi. Le CEO de Google, M. Pichai, décrit un changement fondamental : le mode AI déplace la recherche des mots-clés vers les conversations naturelles, l'IA se charge du tri préalable. Comme base de données, Google cite le Shopping Graph avec plus de 50 milliards de listings de produits ; plus de 2 milliards d'entre eux sont actualisés toutes les heures.
Ce que Google annonce concrètement
1) Le protocole commercial universel (UCP) : un langage commun
UCP est une nouvelle norme ouverte qui fait office de langage commun pour les agents IA, les commerçants et les fournisseurs de paiement tout au long du parcours client. UCP établit une norme pour les agents et les systèmes afin qu'ils puissent collaborer à travers les interfaces utilisateurs, les entreprises et les fournisseurs de paiement. UCP est conçu pour être intersectoriel et compatible avec les protocoles existants tels que Agent2Agent (A2A), Agent Payments Protocol (AP2) et le Model Context Protocol (MCP). UCP a été développé en collaboration avec des leaders du secteur tels que Shopify, Etsy, Wayfair et Target, et est soutenu par plus de 20 autres entreprises de l'écosystème du commerce, dont American Express, Stripe, Visa et Zalando.
Le «Universal Commerce Protocol» (UCP) relie AI Mode/Gemini aux backends des commerçants et standardise les étapes telles que la découverte, le cart, l'identité, le checkout et la commande - sur la base d'API ainsi que de standards tels que MCP et A2A.Avec le «Universal Commerce Protocol» (UCP), Google veut rendre le commerce agentique évolutif : Un standard ouvert, soutenu par un large écosystème de partenaires comprenant des plateformes, des détaillants et des fournisseurs de paiement - de Shopify et Walmart à Visa, Stripe et Zalando.
2) Business Agent : chat de marque directement dans la recherche Google
Une autre nouveauté est le Business Agent : les clients peuvent chatter directement avec les marques dans Search, comme avec un conseiller de vente virtuel, dans la «Brand Voice». L'activation et l'adaptation se font par le biais de Merchant Center ; dans une perspective d'avenir, des formations avec des données propres, des insights, des offres et des achats directs sont prévus.
Google AI-Commerce : Agent commercial
3) Offres directes : offres en mode AI comme nouveau Ads-Play
Ce nouveau projet pilote pour Google Ads permet aux annonceurs de présenter des offres exclusives, comme une réduction spéciale, directement dans le mode IA pour les clients prêts à acheter. Lorsque les utilisateurs posent des questions sur des produits (par exemple, s'ils recherchent un tapis pour une salle à manger), l'IA peut non seulement suggérer des produits adaptés, mais aussi afficher directement des offres exclusives. La diffusion est pilotée par l'IA : dans le cas des offres directes, les commerçants définissent dans les paramètres de leur campagne les offres qu'ils souhaitent mettre en avant, l'IA décide quand une offre est pertinente.
Google AI-Commerce - Offres directes
4) Gemini Enterprise for Customer Experience : Shopping + Service en tant que plateforme d'agent unique
Du côté du cloud, Gemini Enterprise for Customer Experience (CX) arrive : Google lance une plateforme centrale qui réunit le shopping et le service client. Des agents IA préfabriqués et configurables y sont disponibles, basés sur les derniers modèles Gemini de Google, et peuvent être mis en œuvre en quelques jours par les entreprises. Ces agents peuvent accompagner l'ensemble du cycle de vie du client, depuis la découverte de nouveaux produits jusqu'à la résolution d'éventuels problèmes après l'achat. L'accent se déplace ici des simples chatbots vers des concierges numériques proactifs qui peuvent résoudre des problèmes et effectuer des transactions de manière autonome sous la supervision des entreprises. Les détaillants américains Lowe's et Kroger font partie des premiers utilisateurs de ces outils d'agents, tandis que Papa Johns est la première entreprise à utiliser l'agent de commande alimentaire omni-canal de Google Cloud.
Vanessa Lee, Shopify
Qu'est-ce que cela signifie pour le commerce de détail suisse ?
L'histoire de la NRF de Google peut se résumer à une simple question directrice : Comment ne pas seulement être trouvé dans les interfaces IA, mais comment conclure ?
1) Les données sur les produits deviennent le «langage» de l'IA
Lorsque le shopping devient conversationnel, les flux de mots-clés classiques ne suffisent plus. Les données produit doivent pouvoir répondre aux questions : Qu'est-ce qui va avec quoi, quelle alternative existe-t-il, quels accessoires sont compatibles - et pourquoi le produit est-il le bon choix. C'est exactement dans cette direction que s'oriente la logique du Merchant Center de Google : il s'agit de s'éloigner du simple catalogue pour aller vers une base de données qui permette le conseil par le dialogue.
2) «Buy where you browse» raccourcit massivement le Journey
Avec UCP et le checkout en AI Mode/Gemini, Google rapproche la conclusion de l'achat directement du moment de la recherche. Le shopping est ainsi davantage conclu «dans la conversation» - moins de chemin de clics, moins de rebonds, plus rapidement vers la conversion. Pour les commerçants, il s'agit d'une chance, mais aussi d'un problème d'architecture : dès que le passage en caisse a lieu sur des interfaces de plateforme, la relation client doit malgré tout rester chez le détaillant.
C'est pourquoi il vaut la peine pour les commerçants suisses de procéder à une vérification précoce de la réalité : les mécanismes de fidélisation (prix pour les membres, bonus, avantages) sont-ils déjà efficaces au moment de l'achat ? Les données de transaction et les préférences sont-elles correctement intégrées dans le CRM ? Et le processus d'après-vente - du service au réengagement - reste-t-il entre les mains de l'entreprise ? En bref, le checkout de la plate-forme peut accélérer les transactions. Ce qui est décisif, c'est qu'il renforce également la relation qui compte ensuite.
L«»assistant shopping« de Google montre la direction que prend le commerce : une demande (»planifier son 4e anniversaire") se transforme en une expérience d'achat basée sur le dialogue - y compris l'inspiration, la vidéo, la liste concrète de produits et le chemin direct vers la transaction.
3) Brand Voice devient opérationnel
Avec l'agent commercial, Google place la marque là où la vente au détail est la plus sensible : au moment de la décision. Pas comme une bannière, pas comme un slogan, mais comme un interlocuteur. C'est précisément ce qui rend ce changement si explosif pour le branding : la «Brand Voice» passe du statut d'atout de communication à celui d'instance de vente opérationnelle. La tonalité n'est soudain plus quelque chose que l'on polit proprement dans les campagnes - elle devient un levier de conversion dans le dialogue. Pour gagner, il faut plus qu'un brand book en PDF : Il faut un playbook pour les agents qui traduise la gestion de la marque en règles. En d'autres termes, dans un langage propre, des vérités claires sur les produits au lieu de promesses floues, des no-go définis et une brand safety adaptée au dialogue qui ne protège pas les environnements publicitaires, mais les réponses.
Le «Shopping Assistant» devient une infrastructure de vente au détail contrôlable : dans l'Agent-Builder, les commerçants définissent des chemins de conversation et de processus (commande, assistance, retours), tandis que «Conversational Insights» montre en temps réel ce que l'assistant réalise - du taux de rétention au CSAT en passant par une augmentation mesurable du chiffre d'affaires.
De plus, la bienveillance est une marque - et elle est «communiquée» très tôt dans le shopping en agence. Le retour, l'échange, la garantie ou les questions de livraison ne sont pas seulement des détails de service, mais font partie de la personnalité de la marque. Et même le cross-selling acquiert une nouvelle qualité : non pas comme une astuce d'upsell, mais comme un entretien utile de la relation au bon moment, comme un concierge numérique. Pour le commerce de détail suisse, c'est une chance, car la branche vit traditionnellement du conseil, de la fiabilité et de la confiance - et ce sont précisément ces points forts qui peuvent désormais être mis à l'échelle numériquement. La question décisive n'est donc pas : «Avons-nous besoin d'un agent ?» Mais plutôt : Si notre marque parle à l'avenir - comment doit-elle vendre ?
Conclusion
Google ne présente pas un «Search-Refresh» à la NRF 2026, mais une nouvelle architecture : AI-Search comme interface d'assistance, UCP comme couche de transaction, agents comme nouveaux Touchpoints - et Ads comme aide contextuelle à la conclusion. Pour le commerce de détail suisse, la tâche est la suivante : préparer les données, les offres, la voix de la marque et le service de manière à ce qu'ils fonctionnent dans un monde de shopping agentique.
Stefan Riedle devient le nouveau Quality Director de SAP Suisse
Stefan Riedle reprend dès à présent le rôle de Quality Director chez SAP Suisse. Avec Riedle, SAP occupe ce poste avec un expert en qualité confirmé qui a contribué à façonner l'entreprise depuis plus de deux décennies.
Rédaction - 15 janvier 2026
Stefan Riedle, nouveau Quality Director chez SAP. (Image : zVg)
Stefan Riedle travaille depuis 21 ans chez SAP - une période exceptionnellement longue au cours de laquelle il est passé de consultant senior à pilier central de la gestion de la qualité. Dans différentes fonctions, il a aidé de nombreux grands clients à minimiser les risques, à augmenter les standards de qualité et à réaliser une plus-value commerciale. Sa profonde familiarité avec les technologies SAP, son approche analytique et son vaste réseau font de lui le candidat idéal pour ce nouveau rôle, est-il précisé. «Avec Stefan Riedle, le management de la qualité suisse gagne une personnalité dirigeante qui connaît SAP, nos clients et nos processus comme personne», soulignent Sabrina Storck et Thomas Schreitmüller, co-directeurs de SAP Suisse. «Son approche analytique, son calme et sa capacité à rendre compréhensibles des faits complexes sont des facteurs de succès essentiels pour le développement de notre travail sur la qualité».»
Après avoir suivi une formation au lycée technique et à l'école supérieure de technique, d'économie et de design de Constance (HKTWG) pour obtenir un diplôme d'informaticien, il est entré dans la vie professionnelle pratique chez Océ Document Technologies. Après deux ans d'apprentissage chez Océ, il a rejoint SAP en Suisse, auquel il est resté fidèle jusqu'à aujourd'hui. Après plusieurs années passées dans le Business Technology Consulting, il a évolué vers la gestion de la qualité en occupant différents postes.
Dans sa nouvelle fonction, Stefan Riedle souhaite notamment mettre l'accent sur trois points : garantir des standards de qualité élevés, continuer à augmenter la satisfaction des clients et renforcer la confiance dans SAP à long terme. «Pour moi, la qualité n'est pas un état final, mais un processus continu - dans le produit, dans le service et dans la collaboration avec nos clients», déclare Stefan Riedle. «Je me réjouis de franchir les prochaines étapes avec notre équipe».»
Stefan Riedle est marié, père de deux enfants et vit avec sa famille en Suisse orientale. Il aime passer du temps avec sa famille, jouer au billard, pratiquer le jiu-jitsu et, lorsqu'il lui reste du temps, prendre soin de sa Ford Bronco 1992. Il s'engage également dans des associations, notamment dans le domaine de la jeunesse.
Ce changement de rôle est également lié au départ de Sabine Brändle et Uwe Neuendorf, qui prennent tous deux leur retraite après avoir rendu de nombreux services à la gestion de la qualité de SAP Suisse. Grâce à leur engagement et à leur professionnalisme, ils ont contribué de manière décisive au développement de l'équipe Active Quality Management.
L'IA au banc d'essai : pourquoi 2026 décidera des opérations, de la mise à l'échelle et de la gouvernance
2026 marque un tournant stratégique pour de nombreuses entreprises. Les technologies centrales du futur - de l'intelligence artificielle aux plates-formes de données modernes en passant par l'edge computing - convergent vers des systèmes intelligents. Ceux-ci ne créent pas seulement de l'efficacité opérationnelle, mais ouvrent également de toutes nouvelles opportunités commerciales. Parallèlement, les exigences en matière d'infrastructure informatique augmentent considérablement. Dell Technologies présente trois évolutions qui seront déterminantes en 2026 et qui auront une influence sur les stratégies de planification et d'investissement des entreprises.
Rédaction - 14 janvier 2026
Pour de nombreuses entreprises, 2026 sera un test de résistance pour leur stratégie en matière d'IA. (Image : Depositphotos.com)
Aujourd'hui, la vitesse n'est plus seulement un indicateur de performance technologique, mais est également synonyme de la capacité d'une entreprise à adapter ses décisions commerciales quasiment en temps réel. Dans l'industrie, par exemple, des systèmes intelligents relient en permanence les données de production internes aux informations externes provenant des chaînes d'approvisionnement ou des marchés. Ils détectent à temps les risques tels que les pannes de machines ou les changements de la demande et adaptent automatiquement les plans. Les lignes de production restent ainsi flexibles, les ressources sont utilisées de manière optimale et les promesses de livraison peuvent être tenues de manière fiable. Dans le domaine financier également, les entreprises bénéficient de modèles de risques actualisés en permanence. Les transactions, les mouvements du marché et le comportement des clients sont analysés en temps réel, ce qui permet de recalculer en permanence les évaluations des risques. Cela augmente la réactivité et la conformité.
Qu'est-ce que cela signifie concrètement ? Dell Technologies se penche sur les trois principales évolutions de l'infrastructure autour de l'IA.
Tendance n° 1 : l'environnement informatique se transforme en une usine d'IA modulaire
La mise en œuvre de projets d'IA nécessite une infrastructure extrêmement évolutive, ce qui dépasse le cadre d'investissement de nombreuses entreprises. Par exemple, un modèle GenAI performant peut nécessiter des centaines de GPU. Dans ce contexte, un «Data Center as a Service» est une alternative intéressante. Les entreprises ont accès à une puissance de calcul sur une informatique spécialisée sans avoir à construire elles-mêmes une infrastructure. En principe, une approche hybride a fait ses preuves, permettant aux entreprises de se constituer une sorte d«»usine d'IA". Les systèmes de périphérie prennent en charge les tâches critiques en termes de latence, les environnements informatiques centraux servent de couche d'entraînement et de gestion, tandis que les capacités du cloud public sont utilisées pour une mise à l'échelle élastique en cas d'informations moins sensibles. Les données ne sont donc plus déplacées de manière globale dans un environnement, mais suivent un modèle basé sur des règles : où est généré le plus grand bénéfice ? Où le risque est-il le plus faible ? Où le traitement est-il économiquement judicieux ? C'est justement l'économie basée sur les jetons qui remet en question le cloud, longtemps privilégié. Alors que les applications classiques génèrent généralement des charges de calcul prévisibles, les charges de travail de l'IA varient extrêmement. Ainsi, une simple invite ne nécessite que quelques centaines de jetons, alors qu'une analyse complète en consomme des centaines de milliers. Dans le cloud, cela coûte immédiatement cher. Parallèlement, la question de la souveraineté numérique gagne en importance. Le traitement des données et la formation des modèles doivent être conçus de manière à ce que les entreprises puissent contrôler elles-mêmes leur chaîne de création de valeur à tout moment.
Tendance n° 2 : l'économie de l'IA oblige à repenser la solution de stockage
Le succès des applications d'IA ne dépend pas seulement de la puissance de calcul, mais aussi de l'efficacité de l'ensemble de la pile d'IA. Cela comprend des bases de données vectorielles optimisées, des réseaux à faible latence, une mémoire évolutive, des mécanismes de routage intelligents ainsi que des couches de sécurité et de gouvernance. L'objectif est d'organiser les appels de modèles, les processus d'extraction et les validations de manière à ce que le système fonctionne non seulement avec précision, mais aussi en économisant les ressources. L'environnement de stockage joue ici un rôle particulier, car les systèmes d'IA gèrent des ensembles de données de plusieurs centaines de pétaoctets. Les architectures de stockage classiques comme NAS, SAN ou l'ancien Direct-Attached Storage atteignent leurs limites face aux exigences élevées en matière d'agrégation des données et d'accès rapide des charges de travail. Mais même une infrastructure hyperconvergée peut être confrontée à des goulets d'étranglement, notamment lorsque les données sont stockées sur différents nœuds. Les composants de stockage et de calcul doivent en outre toujours être renouvelés ensemble, bien qu'ils aient des cycles de modernisation différents. L'IA accélère ce cycle coûteux : les GPU doivent généralement être mis à jour après quelques années seulement, tandis que les HDD ont une durée de vie nettement plus longue. Les architectures désagrégées offrent ici une solution : les performances de stockage et de calcul sont découplées. Un niveau de stockage commun est disponible via un réseau et peut être utilisé simultanément par tous les systèmes.
Tendance n° 3 : les petits modèles apportent l'intelligence en profondeur dans le cœur opérationnel
En matière de modèles linguistiques, la devise «plus c'est grand, mieux c'est» a longtemps prévalu. Mais dans le quotidien de l'entreprise, ce n'est souvent pas le cas. La production en est un bon exemple. Les Small Language Models (SLM) peuvent être intégrés rapidement dans les processus de production. Contrairement aux grands modèles d'IA, ils peuvent être entraînés en quelques heures de GPU pour des tâches spécifiques comme la détection d'anomalies ou l'analyse de rapports de maintenance. Des techniques telles que la Low-Rank Adaptation (LoRA) y contribuent en intégrant des espaces de travail dédiés sans avoir à réentraîner l'ensemble du modèle. Un avantage décisif est en outre le déploiement local : les SLM peuvent être exploités directement sur des appareils Edge ou dans des environnements OT cloisonnés, ce qui minimise les temps de réaction et les risques de sécurité. En principe, les SLM permettent de réduire sensiblement les charges de calcul, la consommation d'énergie et les coûts du cloud. De tels modèles compacts sont justement indispensables pour les applications dans le domaine de l'IA physique, car les robots autonomes à apprentissage automatique ne fonctionneraient pas sans intelligence embarquée. Ces robots détectent par exemple les obstacles lors du transport de marchandises, adaptent les itinéraires de manière dynamique et apprennent en permanence de leur environnement, comme le ferait un employé humain.
Directeur général de Dell Technologies DACH (Source : Dell Technologies)
«2026 sera une année où les entreprises ne se demanderont plus si elles doivent utiliser l'IA, mais comment elles doivent repenser leurs structures techniques et opérationnelles pour que tout fonctionne de manière à créer de la valeur», déclare Tim van Wasen, directeur général de Dell Technologies DACH. «Dans ce contexte, l'IA impose des exigences élevées à l'environnement informatique. Cela signifie également que les entreprises doivent trouver le bon équilibre entre vitesse, sécurité et coûts, afin de concilier les priorités et les exigences les plus diverses».»